
Comme l'a rapporté pour la première fois Bloombergla Commission centrale des affaires du cyberespace de Chine a publié samedi un document décrivant règles proposées pour les systèmes d'IA anthropomorphes. La proposition comprend une sollicitation de commentaires du public d’ici le 25 janvier 2026.
Les règles sont rédigées en termes généraux et non en jargon juridique. Ils sont clairement destinés à englober les chatbots, bien que ce ne soit pas un terme utilisé dans le document, et le document semble également plus vaste dans sa portée que de simples règles pour les chatbots. Il couvre les comportements et les valeurs globales des produits d’IA qui interagissent émotionnellement avec les gens à l’aide de simulations de personnalités humaines transmises via « texte, image, audio ou vidéo ».
Les produits en question doivent être alignés sur les « valeurs socialistes fondamentales », indique le document.
Gizmodo a traduit le document en anglais avec Google Gemini. Gemini et Bloomberg ont tous deux traduit l'expression « 社会主义核心价值观 » par « valeurs socialistes fondamentales ».
Selon ces règles, ces systèmes devraient s’identifier clairement comme étant une IA et les utilisateurs devraient pouvoir supprimer leur historique. Les données des personnes ne seraient pas utilisées pour former des modèles sans consentement.
Le document propose d’interdire aux personnalités de l’IA :
- Mettre en danger la sécurité nationale, répandre des rumeurs et inciter à ce qu’il appelle des « activités religieuses illégales ».
- Répandre des obscénités, de la violence ou du crime
- Produire des calomnies et des insultes
- Fausses promesses ou matériel qui nuit aux relations
- Encourager l’automutilation et le suicide
- Manipulation émotionnelle qui convainc les gens de prendre de mauvaises décisions
- Et Sollicitation d'informations sensibles
Les fournisseurs ne seraient pas autorisés à créer des chatbots intentionnellement addictifs ou des systèmes destinés à remplacer les relations humaines. Ailleurs, les règles proposées stipulent qu'il doit y avoir une fenêtre contextuelle au bout de deux heures rappelant aux utilisateurs de faire une pause en cas d'utilisation marathon.
Ces produits doivent également être conçus pour détecter les états émotionnels intenses et confier la conversation à un humain si l'utilisateur menace de s'automutiler ou de se suicider.
Vous pouvez lire l’article original (en Angais) sur le bloggizmodo.com