La « franchise incohérente » de Sam Altman se manifeste


Quand le conseil d'administration d'OpenAI a viré Sam Altman fin 2023, les membres du conseil d’administration ont déclaré qu’il « n’était pas toujours franc dans ses communications ». La déclaration a soulevé plus de questions que de réponses, qualifiant indirectement Sam Altman de menteur, mais sur quoi exactement ? Six mois plus tard, les créatifs et anciens employés demandent une fois de plus au public de remettre en question la fiabilité d'OpenAI.

Ce mois-ci, OpenAI a affirmé La voix de ChatGPT, Sky, n'a jamais eu l'intention de ressembler à Scarlett Johansson de Sonce qui a amené l'actrice primée à faire une déclaration publique accablante et menacer de poursuites judiciaires. La voix en question est désormais supprimée. Ce mois-ci également, deux grands noms de la communauté de l'IA qui dirigeait une équipe de sécurité au sein d'OpenAI a quitté. L'un des dirigeants, Jan Leike, a déclaré en sortant que « la culture et les processus de sécurité d'OpenAI ont été relégués au second plan au profit de produits brillants ». Comme Ed Zitron écritil devient de plus en plus difficile de prendre OpenAI au pied de la lettre.

Premièrement, l’affirmation selon laquelle Sky ne ressemble pas à Johansson est littéralement incroyable. Gizmodo a écrit un article affirmant que cela ressemblait au film Son juste après le lancement de GPT-4 Omni, comme l'ont fait de nombreuses autres publications. Les dirigeants d’OpenAI semblaient faire allusion en plaisantant à la ressemblance autour du lancement. Altman a tweeté le mot « son » ce jour la. Le responsable de la recherche Audio AGI d'OpenAI a un capture d'écran du film comme arrière-plan sur X. Nous pouvions tous voir ce que recherchait OpenAI. Deuxièmement, Johansson affirme qu'Altman l'a approchée à deux reprises au sujet de l'assistant audio de ChatGPT. OpenAI affirme que Sky était un acteur complètement différent, mais cette affirmation semble fallacieuse à beaucoup.

La semaine dernière, Altman a déclaré qu’il était «gêné« Le fait de ne pas connaître son entreprise a forcé les employés à garder le silence à vie sur toute mauvaise expérience chez OpenAI ou à renoncer à leurs capitaux propres. L'accord de non-dénigrement à vie a été révélé par un Rapport Vox, s'adressant à un ancien employé d'OpenAI qui a refusé de le signer. Même si de nombreuses entreprises ont conclu des accords de non-divulgation, ce n'est pas tous les jours qu'on en voit un aussi extrême.

Altman a déclaré dans une interview en janvier que il ne savait pas si Ilya Sutskever, scientifique en chef d'OpenAI, travaillait dans l'entreprise. La semaine dernière, Sutskever et son co-responsable du Superalignement, Leike, quitte OpenAI. Leike a déclaré que les ressources de Superalignment étaient siphonnées vers d'autres parties de l'entreprise pendant des mois.

En mars, Mira Murati, directrice de la technologie, a déclaré elle n'était pas sûre si Sora a été formé sur des vidéos YouTube. Le directeur de l'exploitation, Brad Lightcap, a doublé cette confusion en éluder une question à ce sujet au Tech Summit de Bloomberg en mai. Malgré que, Le New York Times rapporte que des membres seniors d'OpenAI ont été impliqués dans la transcription de vidéos YouTube pour former des modèles d'IA. Lundi, le PDG de Google, Sundar Pichai, a déclaré Le bord que si OpenAI s'entraînait sur des vidéos YouTube, ce ne serait pas approprié.

En fin de compte, OpenAI est enveloppé de mystère, et la question de la « franchise incohérente » de Sam Altman ne disparaîtra tout simplement pas. Cela peut nuire à la réputation d'OpenAI, mais le mystère joue également en faveur d'OpenAI. L’entreprise s’est présentée comme une startup secrète détenant la clé de notre monde futuriste et, ce faisant, OpenAI a réussi à capter notre attention collective. Tout au long du mystère, la société a continué à proposer des produits d’IA de pointe. Cela dit, il est difficile de ne pas être sceptique quant aux communications d'OpenAI, une entreprise bâtie sur le principe d'être « ouverte ».



Vous pouvez lire l’article original (en Angais) sur le {site|blog}gizmodo.com