Près de trois semaines après la sortie brusque de Black éthicien en intelligence artificielle Timnit Gebru, plus de détails émergent sur le nouvel ensemble de politiques louches que Google a déployé pour son équipe de recherche.
Après avoir examiné les communications internes et parlé aux chercheurs concernés par le changement de règle, Reuters a rapporté mercredi que le géant de la technologie avait récemment ajouté un processus d’examen des «sujets sensibles» pour les articles de ses scientifiques et, à au moins trois reprises, avait explicitement demandé aux scientifiques de s’abstenir de présenter la technologie de Google sous un jour négatif.
Dans le cadre de la nouvelle procédure, les scientifiques sont tenus de rencontrer des équipes juridiques, politiques et de relations publiques spéciales avant de poursuivre des recherches sur l’IA liées à des sujets dits controversés qui pourraient inclure une analyse faciale et des catégorisations de race, de sexe ou d’affiliation politique.
Dans un exemple examiné par Reuters, des scientifiques qui avaient étudié la recommandation utilisée par l’IA pour alimenter les flux d’utilisateurs sur des plates-formes comme YouTube – une propriété appartenant à Google – avaient rédigé un document détaillant les préoccupations selon lesquelles la technologie pourrait être utilisée pour promouvoir «la désinformation, discriminatoire ou autre des résultats injustes »et« une diversité insuffisante du contenu », ainsi qu’une« polarisation politique ». Après examen par un cadre supérieur qui a demandé aux chercheurs d’adopter un ton plus positif, la publication finale suggère plutôt que les systèmes peuvent promouvoir «des informations précises, l’équité et la diversité du contenu».
«Les progrès technologiques et la complexité croissante de notre environnement externe conduisent de plus en plus à des situations où des projets apparemment inoffensifs soulèvent des problèmes éthiques, de réputation, réglementaires ou juridiques», aurait déclaré une page Web interne décrivant la politique.
G / O Media peut obtenir une commission
Ces dernières semaines – et en particulier après la départ de Gebru, une chercheuse de grande renommée qui serait tombée en disgrâce auprès des hauts responsables après avoir sonné l’alarme sur la censure infiltrant le processus de recherche – Google a fait face à un examen plus minutieux des biais potentiels dans sa division de recherche interne.
Quatre chercheurs membres du personnel qui se sont entretenus avec Reuters ont validé les affirmations de Gebru, affirmant qu’ils pensaient également que Google commençait à interférer avec des études critiques sur le potentiel de la technologie à nuire.
«Si nous recherchons la chose appropriée compte tenu de notre expertise, et que nous ne sommes pas autorisés à publier cela pour des raisons qui ne sont pas conformes à un examen par les pairs de haute qualité, alors nous nous trouvons dans un grave problème de censure», Margaret Mitchell, a déclaré un scientifique senior de l’entreprise.
Début décembre, Gebru a affirmé avoir été licenciée par Google après avoir repoussé un ordre de ne pas publier de recherches affirmant que l’IA capable d’imiter la parole pourrait désavantager les populations marginalisées.
.
Vous pouvez lire l’article original (en Angais) sur le sitegizmodo.com