Bienvenue dans AI This Week, le résumé hebdomadaire de Gizmodo où nous approfondissons en profondeur ce qui se passe dans le domaine de l’intelligence artificielle.
Eh bien, putain de merde. En ce qui concerne l’industrie technologique, il est difficile de dire s’il y a déjà eu une série d’événements plus choquants que ceux qui ont eu lieu ces derniers jours. L’intrigue du palais et le drame de la salle de réunion de L’éviction de Sam Altman par le conseil d’administration d’OpenAI (et son réintégration victorieuse plus tôt dans la journée) restera sans aucun doute dans l’histoire comme l’un des épisodes les plus explosifs jamais arrivés à la Silicon Valley. Cela dit, les retombées à long terme de cet incident captivant seront forcément beaucoup moins agréables que le spectacle initial.
Le « coup d’État », comme beaucoup l’ont appelé, a été largement attribué à un désaccord idéologique entre Sam et le conseil d’administration d’OpenAI sur le rythme du développement technologique de l’entreprise. Selon ce récit, le conseil d’administration, qui est censé avoir le dernier mot sur la direction de l’organisation, était préoccupé par la vitesse à laquelle Altman faisait pression pour commercialiser la technologie, et a décidé de l’expulser avec un préjudice extrême. Altman, qui a ensuite été soutenu par le puissant partenaire et bailleur de fonds d’OpenAI, Microsoft, ainsi que par un majorité du personnel de la startupa ensuite mené un contre-coup d’État, chassant les traîtres et se réinstallant à la tête de l’entreprise.
Une grande partie du drame de l’épisode semble tourner autour de cet argument entre Altman et le conseil d’administration sur la « sécurité de l’IA ». En effet, ce chapitre chargé de l’histoire de l’entreprise semble être une explosion de deux personnalités opposées d’OpenAI : l’une basée sur la recherche et le développement technologique responsable, et l’autre basée sur la recherche de profits considérables. Un côté a décidément dominé l’autre (indice : c’était le côté financier).
D’autres auteurs ont déjà proposé pannes sur la façon dont la structure organisationnelle unique d’OpenAI semble l’avoir mis sur une trajectoire de collision avec elle-même. Peut-être avez-vous vu la startup organigramme flottant sur le Web, mais, au cas où ce ne serait pas le cas, voici un bref récapitulatif : contrairement à presque toutes les autres entreprises technologiques existantes, OpenAI est en fait une organisation à but non lucratif, entièrement régie par son conseil d’administration, qui exploite et contrôle une entreprise à but lucratif. Cette conception est censée donner la priorité à la mission de l’organisation qui consiste à rechercher le bien public plutôt que l’argent. OpenAI propre description de soi promeut cette notion idéaliste selon laquelle son objectif principal est de rendre le monde meilleur, et non de gagner de l’argent :
Nous avons conçu la structure d’OpenAI (un partenariat entre notre organisation à but non lucratif d’origine et une nouvelle branche à but lucratif plafonné) comme un cadre pour la mission d’OpenAI : construire une intelligence artificielle générale (AGI) sûre et qui profite à toute l’humanité.
En effet, la charte du conseil d’administration doit son allégeance à « l’humanité », et non à ses actionnaires. Ainsi, malgré le fait que Microsoft a investi une mégatonne d’argent et de ressources dans OpenAI, le conseil d’administration de la startup est toujours (hypothétiquement) censé avoir le dernier mot sur ce qui arrive à ses produits et à sa technologie. Cela dit, la partie entreprise de l’organisation est valait des dizaines de milliards de dollars. Comme beaucoup l’ont déjà souligné, la mission éthique de l’organisation semble être entrée directement en conflit avec les intérêts économiques de ceux qui avaient investi dans l’organisation. Comme d’habitude, l’argent a été gagné.
Cela dit, on pourrait faire valoir que nous ne devrions pas encore pleinement approuver cette interprétation des événements du week-end, puisque les véritables raisons de l’éviction d’Altman n’ont toujours pas été rendues publiques. Pour la plupart, les membres de l’entreprise soit je ne parle pas sur les raisons pour lesquelles Sam a été expulsé ou a catégoriquement nié que son éviction avait quelque chose à voir avec la sécurité de l’IA. Entre-temps, d’autres théories ont tourbillonné, certaines suggérant que les véritables raisons du départ agressif d’Altman étaient décidément plus colorées, comme les accusations selon lesquelles il recherché un financement supplémentaire via les régimes autocratiques du Moyen-Orient.
Mais s’enliser trop dans les spéculations sur les catalyseurs spécifiques du drame d’OpenAI, c’est ignorer ce que tout l’épisode a révélé : en ce qui concerne le monde réel, la « sécurité de l’IA » dans la Silicon Valley est quasiment nulle et non avenue. En effet, nous savons désormais que malgré sa structure organisationnelle soi-disant à toute épreuve et sa mission déclarée de développement responsable de l’IA, OpenAI n’aura jamais été autorisé à faire passer l’éthique avant l’argent.
Pour être clair, la sécurité de l’IA est un domaine très important et, si elle était réellement pratiquée par les entreprises américaines, ce serait une chose. Cela dit, la version qui existait chez OpenAI – sans doute l’une des sociétés qui a fait le plus poursuivre un modèle axé sur la « sécurité » – ne semble pas avoir été vraiment à la hauteur des machinations realpolitik de l’industrie technologique. En termes encore plus francs, ceux qui étaient censés nous défendre contre l’IA galopante (c’est-à-dire les membres du conseil d’administration) – ceux qui ont été chargés d’une gestion responsable de cette puissante technologie – ne semblent pas savoir ce qu’ils faisaient. . Ils ne semblent pas avoir compris que Sam avait toutes les relations dans l’industrie, des amis haut placés, qu’il était très apprécié, et que s’opposer à lui dans un monde où ce type de capital social est primordial équivalait à un suicide de carrière. Si vous venez chez le roi, vous feriez mieux de ne pas le rater.
En bref : si l’objectif de la sécurité de l’IA en entreprise est de protéger l’humanité contre une IA galopante, alors, en tant que stratégie efficace pour y parvenir, elle vient effectivement d’échouer son premier grand test. C’est parce qu’il est assez difficile de faire confiance à un groupe de personnes qui n’étaient même pas capables de prédire le résultat très prévisible qui se produirait lorsqu’ils licencieraient leur patron. Comment, exactement, peut-on confier à un tel groupe la supervision d’une technologie soi-disant « super intelligente » et révolutionnaire ? Si vous ne pouvez pas déjouer un groupe d’investisseurs indignés, alors vous ne pourrez probablement pas déjouer l’entité de type Skynet que vous prétendez construire. Cela dit, je dirais que nous ne pouvons pas non plus faire confiance aux dirigeants lâches et obsédés par l’argent qui ont maintenant réaffirmé leur domination. Imo, ils sont évidemment je ne ferai pas la bonne chose. Ainsi, en réalité, l’humanité est coincée entre le marteau et l’enclume.
Alors que le conflit lié à la poussière d’OpenAI s’installe, il semble que l’entreprise soit bien placée pour reprendre ses activités comme d’habitude. Après largage les deux seules femmes à son conseil d’administration, a ajouté la société le crétin financier Larry Summers. Altman est de retour dans l’entreprise (tout comme l’ancien président de l’entreprise, Greg Brockman, qui a démissionné par solidarité avec Altman), et le plus haut dirigeant de Microsoft, Satya Nadella, a dit que il est « encouragé par les changements apportés au conseil d’administration d’OpenAI » et a déclaré qu’il s’agit d’une « première étape essentielle sur la voie d’une gouvernance plus stable, mieux informée et plus efficace ».
Avec l’échec du conseil d’administration, il semble clair que les bienfaiteurs d’OpenAI ont peut-être non seulement fait reculer leur propre mission de « sécurité », mais pourraient également avoir déclenché une réaction violente contre le mouvement pour l’éthique de l’IA au sens large. Exemple concret : le drame de ce week-end semble avoir radicalisé davantage une idéologie anti-sécurité déjà assez radicale qui circulait dans le secteur. Le « des accélérateurs efficaces » (en abrégé « e/acc ») estiment que des éléments tels que des réglementations gouvernementales supplémentaires, « l’éthique technologique » et la « sécurité de l’IA » sont autant d’obstacles encombrants au véritable développement technologique et au profit exponentiel. Au cours du week-end, alors que le discours sur la « sécurité de l’IA » émergeait, certains des plus fervents adeptes de ce système de croyance se sont tournés vers X pour dénoncer ce qu’ils perçoivent comme une attaque sur la véritable victime de l’épisode (le capitalisme, bien sûr).
Dans une certaine mesure, l’intérêt de l’industrie technologique pour adopter l’« éthique » et la « sécurité » est de rassurer. Les entreprises se rendent compte que les technologies qu’elles vendent peuvent être déconcertantes et perturbatrices ; ils veulent rassurer le public sur le fait qu’ils font de leur mieux pour protéger les consommateurs et la société. En fin de compte, cependant, nous savons désormais qu’il n’y a aucune raison de croire que ces efforts feront une différence si l’« éthique » de l’entreprise finit par entrer en conflit avec son argent. Et quand ces deux choses n’ont-elles jamais été en conflit ?
Question du jour : quel a été le meilleur mème ressortant du drame OpenAI ?

Cette semaine imbroglio sans précédent a inspiré tellement de mèmes et de prises sarcastiques que la possibilité de choisir un favori semble presque impossible. En fait, le scandale a donné naissance à plusieurs genres de mèmes au total. Immédiatement après l’éviction d’Altman, de nombreuses Mèmes du complot de Rust Cohl circulant, alors que le monde de la technologie s’efforçait de comprendre exactement de quoi il était témoin. Il y avait aussi des blagues sur qui devrait remplacer Altman et qu’est-ce qui a pu causer la lutte pour le pouvoir en premier lieu. Puis, lorsqu’il est devenu clair que Microsoft soutiendrait le PDG déchu, le récit – et les mèmes – ont changé. Le Sam triomphant revient au genre OpenAI après avoir évincé le tableau est devenu populaire, tout comme des tonnes de Mèmes liés à Satya Nadelle. Il y avait bien sûr Succession mèmes. Et finalement, un genre inévitable de mèmes est apparu dans lequel les utilisateurs de X s’est moqué du conseil d’administration d’OpenAI pour avoir si complètement raté le coup d’État contre Altman. perso j’ai trouvé ça vidéo deepfake qui échange le visage d’Altman avec celui de Jordan Belfort dans le loup de Wall Street être un bon. Cela dit, exprimez-vous dans les commentaires avec votre favori.
Plus de titres de cette semaine
- L’autre société d’IA qui a connu une très mauvaise semaine. OpenAI n’est pas la seule entreprise technologique à avoir été mise à rude épreuve cette semaine. Cruise, la société de robotaxi appartenant à General Motors, traverse également une période assez difficile. Le fondateur et PDG de l’entreprise, Kyle Vogt, résigné lundi après que l’État de Californie a accusé l’entreprise de ne pas avoir divulgué des détails clés liés à un incident violent avec un piéton. Vogt a fondé l’entreprise en 2013 et l’a propulsée vers une place de premier plan dans l’industrie du voyage automatisé. Cependant, l’entreprise est ratée déploiement de véhicules à San Francisco en août a provoqué une consternation généralisée et de nombreuses plaintes de la part des habitants de la ville et des responsables de la sécurité publique. Les scandales de Cruise ont conduit l’entreprise à retirer tous ses véhicules hors des routes en Californie en octobre et, finalement, d’arrêter les opérations dans tout le pays.
- MC Hammer est apparemment un grand fan d’OpenAI. Pour ajouter à l’étrangeté de cette semaine, nous avons également découvert que le rappeur « U Can’t Touch This » MC Hammer est un stan confirmé d’OpenAI. Mercredi, alors que le chaos de la lutte pour le pouvoir de cette semaine touchait à sa fin, le rappeur tweeté: « Salut et félicitations au 710 plus@OpenAI membres de l’équipe qui ont fait une démonstration sans précédent de loyauté, d’amour et d’engagement envers @sama et @gdb en ces temps périlleux, c’était une chose de beauté à voir.
- Les créatifs perdent la guerre des droits d’auteur sur l’IA. Le procès de Sarah Silverman contre OpenAI et Meta ne se passe pas très bien. Cette semaine, il a été révélé que le procès intenté par l’humoriste aux géants de la technologie (qu’elle accuse de violations des droits d’auteur) avait échoué. Silverman n’est pas seul. Un procès intenté par un certain nombre d’artistes visuels contre Midjourney et Stability AI a été presque jeté par un juge le mois dernier. Cela dit, même si ces poursuites semblent échouer, il s’agirait peut-être simplement de trouver l’argument juridique approprié pour qu’elles aboutissent. Même si les revendications actuelles ne sont peut-être pas assez solides, les cas pourrait être révisé et reclassé.
Vous pouvez lire l’article original (en Angais) sur le sitegizmodo.com