La FTC enquête sur le problème d’hallucination de ChatGPT


La Commission fédérale du commerce est enquêter sur OpenAI pour déterminer si oui ou non son ChatGPT Chatbot IA et d’autres produits enfreignent les lois sur la protection des consommateurs en mettant en danger la réputation personnelle et les données des personnes. Le PDG Sam Altman, qui a jusqu’à présent réussi à sourire et hocher la tête son chemin autour de la plupart des barrages routiers gouvernementaux, peut faire face à sa première véritable opposition de la part de l’agence de protection des consommateurs ouvertement combative.

La FTC a demandé à OpenAI de remettre une longue liste de documents datant du 1er juin, 2020, y compris des détails sur la façon dont il évalue les risques dans ses systèmes d’IA et comment il se protège contre l’IA faisant de fausses déclarations sur de vraies personnes, selon un lettre de 20 pages obtenu par le Washington Post. Les enquêteurs demandent un large éventail d’informations sur la manière dont OpenAI forme ses grands modèles de langage, y compris les types exacts de données sur lesquels il est formé, comment il a obtenu ces données et dans quelle mesure ces données ont été collectées en grattant le Web ouvert. Malgré le nom de l’entreprise, OpenAI a été discret sur les origines précises des données utilisées pour former ses modèles.

De même, la lettre de la FTC demande à OpenAI de fournir une description des plaintes qu’elle a reçues à ce stade de son système faisant des déclarations « fausses, trompeuses, désobligeantes ou préjudiciables » à propos de personnes. Les chercheurs et les journalistes ont montré à plusieurs reprises des exemples de ChatGPT et d’autres LLM « hallucinant » des informations fabriquées contre des sujets. Dans un exemple signalé pour la première fois par Gizmodo, ChatGPT aurait inséré un animateur de talk-show dans une affaire judiciaire de détournement de fonds avec laquelle il n’avait rien à voir. Cet animateur de radio poursuit maintenant OpenAI pour diffamation. La FTC dit vouloir connaître les mesures prises par OpenAI pour filtrer ou anonymiser les informations personnelles incluses dans son ensemble de données et les mesures qu’elle a prises pour réduire le risque que ses modèles évoquent des déclarations fabriquées sur les personnes.

La FTC souhaite également en savoir plus sur les politiques et procédures d’OpenAI pour évaluer la sécurité et les risques avant de diffuser ses produits au public. En plus des documents détaillant les étapes suivies avant la sortie de ses systèmes, l’agence a demandé à OpenAI de fournir des exemples de cas où l’entreprise a choisi pas de lancer un LLM pour des raisons de sécurité. Alors que la plupart des demandes de la lettre de la FTC étaient de nature générale, l’agence s’est concentrée spécifiquement sur un Incident de sécurité en mars où un bogue dans son système permettait à certains utilisateurs de consulter les journaux de discussion et les informations relatives au paiement d’autres personnes. OpenAI a dû brièvement mettre ChatGPT hors ligne pour résoudre ce problème.

OpenAI et la FTC n’ont pas immédiatement répondu à la demande de commentaire de Gizmodo.

Les groupes de surveillance technologique concernés par le déploiement rapide des modèles d’OpenAI comme le Tech Oversight Project ont salué l’action accrue de la FTC. Dans une déclaration envoyée à Gizmodo, le directeur exécutif adjoint du projet de surveillance, Kyle Morse, a qualifié l’histoire d’OpenAI de se précipiter sur de nouveaux produits pour le public « téméraire et irresponsable ».

« Les mastodontes de la Big Tech jouent à cache-cache sur l’IA avec le Congrès et le peuple américain en peignant un avenir apocalyptique, tout en coupant de manière agressive la concurrence, en abusant de la vie privée des gens et en permettant aux escroqueries de sévir », a déclaré Morse.

La FTC pourrait constituer un obstacle à l’offensive de charme de Sam Altman

L’enquête de la FTC pourrait marquer le plus grand test réglementaire pour OpenAI aux États-Unis à ce jour. À ce stade, le PDG Altman a réussi à se démarquer d’une grande partie des craintes justifiées et parfois sensationnelles autour de l’IA exprimées par les législateurs des deux côtés du spectre politique. Altman a témoigné devant le sous-comité judiciaire du Sénat plus tôt cette année et a surtout hoché la tête et en accord avec les législateurs exprimant leur inquiétude à propos de son système. Le PDG s’est dit lui aussi inquiet et a salué l’idée d’une nouvelle réglementation, allant même jusqu’à plaider en faveur de la définition de nouvelles exigences en matière de tests et de licences d’IA pour les développeurs. Altman a poliment décliné la demande d’un sénateur de diriger un nouvel agent chargé de superviser ces normes.

« J’adore mon travail actuel », a déclaré Altman.

Altman aurait laissé une impression durable sur des dizaines de législateurs en réunions à huis clos et était parmi plusieurs participants qui rencontré le vice-président Kamala Harris à la Maison Blanche pour discuter de l’IA responsable. En dehors du Congrès, Altman a lettres d’avertissement signées des façons dont l’IA non contrôlée pourrait menacer l’humanité.

Tous ces efforts de sensibilisation ont fait d’Altman et d’OpenAI des acteurs responsables, au moment même où les législateurs envisagent de rédiger une série de nouveaux projets de loi destinés à régner sur l’IA. La FTC, d’autre part, a semblé moins réceptive à l’offensive de char d’Altman. Ces derniers mois, l’agence a publié plusieurs articles de blog avertir les entreprises contre l’exagération excessive des capacités de leur système d’IA et avertir les consommateurs d’escrocs utilisant l’IA pour commettre des fraudes. La présidente de la FTC, Lina Khan, n’a pas non plus mâché ses mots et a même publié un éditorial dans le New York Times avec le titre brutal « Nous devons réglementer l’IA maintenant.”

« Bien que ces outils soient nouveaux, ils ne sont pas exemptés des règles existantes, et la FTC appliquera vigoureusement les lois que nous sommes chargés d’administrer, même sur ce nouveau marché », a écrit Khan.



Vous pouvez lire l’article original (en Angais) sur le bloggizmodo.com