Votre petite amie IA est une émission d'horreur qui collecte des données


Vous êtes seul le jour de la Saint-Valentin ? L’IA peut aider. C'est du moins ce que vous diront un certain nombre d'entreprises vendant des chatbots « romantiques ». Mais à mesure que votre histoire d'amour avec les robots se déroule, il y a un compromis que vous ne réalisez peut-être pas que vous faites. Selon une nouvelle étude du projet *Privacy Not Included de Mozilla, Copines et petits amis IA récoltent des informations personnelles choquantes, et presque tous vendent ou partagent les données qu’ils collectent.

« Pour être parfaitement direct, les petites amies et les petits amis de l'IA ne sont pas vos amis », a déclaré Misha Rykov, chercheur chez Mozilla, dans un communiqué de presse. « Bien qu'ils soient commercialisés comme quelque chose qui améliorera votre santé mentale et votre bien-être, ils se spécialisent dans la lutte contre la dépendance, la solitude et la toxicité, tout en vous extrayant autant de données que possible. »

Mozilla a fouillé 11 chatbots romantiques IA différents, y compris des applications populaires telles que Replika, Chai, Romantic AI, EVA AI Chat Bot & Soulmate et CrushOn.AI. Chacun a obtenu le label Privacy Not Included, plaçant ces chatbots parmi les pires catégories de produits que Mozilla ait jamais examinées. Les applications mentionnées dans cette histoire n'ont pas immédiatement répondu aux demandes de commentaires.

Vous avez déjà entendu des histoires sur des problèmes de données, mais selon Mozilla, les petites amies IA violent votre vie privée de « manières inquiétantes ». Par exemple, CrushOn.AI collecte des détails, notamment des informations sur la santé sexuelle, l'utilisation de médicaments et les soins d'affirmation de genre. 90 % des applications peuvent vendre ou partager des données utilisateur à des fins publicitaires ciblées et à d'autres fins, et plus de la moitié ne vous permettent pas de supprimer les données qu'elles collectent. La sécurité était également un problème. Une seule application, Genesia AI Friend & Partner, répondait aux normes de sécurité minimales de Mozilla.

L'une des découvertes les plus frappantes a été celle où Mozilla a dénombré les trackers présents dans ces applications, de petits morceaux de code qui collectent des données et les partagent avec d'autres sociétés à des fins publicitaires et autres. Mozilla a découvert que les applications AI Girlfriend utilisaient en moyenne 2 663 trackers par minute, bien que ce nombre ait été augmenté par Romantic AI, qui a appelé 24 354 trackers en seulement une minute d'utilisation de l'application.

Le désordre en matière de confidentialité est encore plus troublant car les applications vous encouragent activement à partager des informations bien plus personnelles que le genre de choses que vous pourriez saisir dans une application classique. EVA AI Chat Bot & Soulmate pousse les utilisateurs à « partager tous vos secrets et désirs » et demande spécifiquement des photos et des enregistrements vocaux. Il convient de noter qu'EVA était le seul chatbot qui n'a pas été dérangé par la façon dont il utilise ces données, bien que l'application ait eu des problèmes de sécurité.

Mis à part les problèmes de données, les applications ont également fait des affirmations douteuses sur leur utilité. EVA AI Chat Bot & Soulmate se présente comme « un fournisseur de logiciels et de contenus développés pour améliorer votre humeur et votre bien-être ». L'IA romantique dit qu'elle est « là pour maintenir votre SANTÉ MENTALE ». Cependant, lorsque vous lisez les conditions et services de l'entreprise, ils font tout leur possible pour se distancier de leurs propres réclamations. Les politiques de Romantic AI, par exemple, stipulent qu'elle n'est « ni un fournisseur de soins de santé ou de services médicaux, ni un fournisseur de soins médicaux, de services de santé mentale ou d'autres services professionnels ».

C'est probablement un motif juridique important à couvrir, compte tenu de l'historique de ces applications. Replika aurait encouragé la tentative d'un homme de assassiner la reine d'Angleterre. Un chatbot Chai aurait a encouragé un utilisateur à se suicider.



Vous pouvez lire l’article original (en Angais) sur le sitegizmodo.com