L’IA générative est l’outil le plus récent du manuel du dictateur


Lorsque les manifestations au Pakistan au début de cette année ont dégénéré en affrontements entre forces progouvernementales et partisans de l’ancien Premier ministre Imran Khan, le dirigeant désormais emprisonné s’est tourné vers les réseaux sociaux pour renforcer son message. Khan a partagé ceci bref clip vidéo sur Twitter montrant ses partisans brandissant des pancartes avec son visage dessus et scandant son nom. Le clip se termine par un plan fixe d’une femme vêtue d’une robe orange se tenant hardiment face à face avec une ligne de policiers anti-émeutes lourdement blindés.

« Ce qui ne sera jamais oublié, c’est la brutalité de nos forces de sécurité et la manière éhontée dont elles ont fait tout leur possible pour maltraiter, blesser et humilier nos femmes », a tweeté Khan. Seul problème : l’image montrant la femme courageusement debout devant la police n’était pas réelle. Il a été créé en utilisant l’un des de nombreux nouveaux générateurs d’images IA.

Khan n’est pas le seul dirigeant politique à se tourner vers Deepfakes d’IA, à des fins politiques. Un nouveau rapport de Freedom House partagé avec Gizmodo révèle que des dirigeants politiques d’au moins 16 pays ont déployé des contrefaçons profondes au cours de l’année écoulée pour « semer le doute, diffamer les opposants ou influencer le débat public ». Bien qu’une poignée de ces exemples se soient produits dans des pays moins développés d’Afrique subsaharienne et d’Asie du Sud-Ouest, au moins deux proviennent des États-Unis.

L’ancien président Donald Trump et le gouverneur de Floride Ron DeSantis ont tous deux utilisé des vidéos et des fichiers audio truqués pour tenter de se diffamer avant la prochaine nomination républicaine à la présidentielle. Dans le cas de Trump, il a utilisé des imitations audio truquées George Soros, Adolf Hitler et le Diable lui-même pour se moquer de DeSantis annonce de campagne fragile sur Twitter Spaces. DeSantis a riposté avec de fausses images prétendant montrer Trump embrassant Anthony Fauci, ancien directeur de l’Institut national de la santé. Faire preuve de gentillesse envers Fauci dans le GOP actuel équivaut à un suicide politique.

« L’IA peut servir d’amplificateur de répression numérique, rendant la censure, la surveillance ainsi que la création et la diffusion de désinformation plus faciles, plus rapides, moins coûteuses et plus efficaces », a noté Freedom House dans son rapport « Freedom on the Net ».

Le rapport détaille de nombreuses façons troublantes dont les outils avancés d’IA sont utilisés pour amplifier la répression politique dans le monde entier. Les gouvernements d’au moins 22 des 70 pays analysés dans le rapport disposaient de cadres juridiques obligeant les sociétés de médias sociaux à déployer l’IA pour traquer et supprimer les discours politiques, sociaux et religieux défavorisés. Ces cadres vont au-delà des politiques standard de modération de contenu des principales plateformes technologiques. Dans ces pays, Freedom House affirme que les lois en vigueur obligent les entreprises à supprimer les contenus politiques, sociaux ou religieux qui « devraient être protégés par les normes de liberté d’expression prévues par les lois internationales relatives aux droits de l’homme ». En plus d’accroître l’efficacité de la censure, l’utilisation de l’IA pour supprimer des contenus politiques donne également à l’État davantage de couverture pour se dissimuler.

« Cette utilisation de l’IA masque également le rôle de l’État dans la censure et pourrait atténuer le soi-disant dilemme du dictateur numérique, dans lequel des dirigeants non démocratiques doivent peser les avantages d’imposer des contrôles en ligne par rapport aux coûts de la colère du public face à de telles restrictions », peut-on lire dans le rapport. ajoute.

Dans d’autres cas, les acteurs étatiques se tourneraient vers des sociétés privées « d’IA à louer », spécialisées dans la création de propagande générée par l’IA et destinée à imiter de vrais présentateurs d’informations. Les chaînes d’information soutenues par l’État au Venezuela, par exemple, ont commencé à partager d’étranges vidéos de présentateurs d’information, pour la plupart blancs et anglophones, contrecarrant les critiques occidentales à l’égard du pays. Ces étranges orateurs étaient en fait Avatars générés par l’IA créés par une société appelée Synthesia. Les comptes de robots du gouvernement pro-Chine ont partagé des clips similaires de présentateurs d’informations générés par l’IA sur les réseaux sociaux, semblant cette fois repousser les critiques. Les avatars de l’IA pro-Chine faisaient partie d’un tout une division d’informations sur l’IA fabriquée, soi-disant appelée « Wolf News ».

Les chercheurs de Freedom House considèrent ces nouveaux efforts visant à générer de faux présentateurs d’informations comme une évolution technique et tactique des gouvernements obligeant ou payant les chaînes d’information à promouvoir la propagande.

« Ces utilisations de deepfakes sont cohérentes avec la manière dont des acteurs politiques sans scrupules utilisent depuis longtemps des contenus d’actualité manipulés et des robots de réseaux sociaux pour diffuser des informations fausses ou trompeuses », note le rapport.

Ce qui est peut-être le plus troublant, c’est que le rapport de Freedom House montre une augmentation des acteurs politiques qualifient de deepfakes des vidéos et des audios qui sont en fait authentiques. Par exemple, un éminent responsable de l’État indien, Palanivel Thiagarajan, aurait tenté de faire taire une fuite audio le montrant dénigrant ses collègues en affirmant qu’il était généré par l’IA. C’était réel. Les chercheurs pensent qu’une hypothèse erronée selon laquelle une vidéo de l’ancien président gabonais Ali Bongo aurait été truquée pourrait avoir été falsifiée. contribué à déclencher un soulèvement politique.

Bien que la majorité des efforts de manipulation politique et de désinformation découverts par Freedom House au cours de l’année écoulée reposent toujours principalement sur le déploiement de robots et de trolls rémunérés de moindre envergure, cette équation pourrait s’inverser à mesure que les outils d’IA générative continuent de devenir plus convaincants et que leur prix baisse. Selon Freedom House, même une manipulation peu convaincante ou facilement réfutable de l’IA « sape toujours la confiance du public dans le processus démocratique ».

« Il s’agit d’une question cruciale pour notre époque, dans la mesure où les droits de l’homme en ligne sont une cible clé des autocrates d’aujourd’hui », a déclaré le président de Freedom House, Michael J. Abramowitz. « Les États démocratiques devraient renforcer leur réglementation de l’IA pour assurer plus de transparence, fournir des mécanismes de surveillance efficaces et donner la priorité à la protection des droits de l’homme. »





Vous pouvez lire l’article original (en Angais) sur le sitegizmodo.com