Apple dit qu’il ne laissera pas les gouvernements coopter les outils de détection CSAM


Image de l'article intitulé Apple dit qu'il ne laissera pas le gouvernement transformer ses outils de détection de la maltraitance des enfants en une arme de surveillance

photo: GIUSEPPE CACACE / AFP (Getty Images)

Après avoir fait face à de nombreuses critiques, Apple a doublé et défendu ses plans de lancement nouveaux outils controversés visant à identifier et signaler le matériel pédopornographique (ou CSAM) sur ses plateformes.

La semaine dernière, la société a annoncé plusieurs mises à jour en attente, les décrivant dans un article de blog intitulé «Protections étendues pour les enfants.  » Ces nouvelles fonctionnalités, qui seront déployées plus tard cette année avec la sortie d’iOS 15 et d’iPadOS 15, sont conçues pour utiliser l’analyse algorithmique. rechercher et identifier du matériel pédopornographique sur les appareils des utilisateurs. Un outil analysera les photos sur l’appareil qui ont été partagées avec iCloud à la recherche de signes de CSAM, tandis que l’autre fonctionnalité analysera les iMessages envoyés vers et depuis des comptes enfants dans le but d’empêcher les mineurs de partager ou de recevoir des messages contenant des images sexuellement explicites. Nous avons fait un récapitulatif plus détaillé des deux fonctionnalités et des préoccupations les concernant ici.

La société a à peine eu le temps d’annoncer ses plans la semaine dernière avant d’être rencontrée un tollé des organisations de défense des libertés civiles, qui ont qualifié les changements proposés de bien intentionnés mais en fin de compte de pente glissante vers une dangereuse érosion de la vie privée.

Lundi, Apple publié une réponse à bon nombre des préoccupations qui ont été soulevées. La société a spécifiquement nié que ses outils d’analyse pourraient un jour être réutilisés pour rechercher d’autres types de matériel sur les téléphones et les ordinateurs des utilisateurs autres que CSAM. Les critiques craignent qu’un gouvernement (le nôtre ou celui de quelqu’un d’autre) puisse faire pression sur Apple pour qu’il ajoute ou modifie les nouvelles fonctionnalités, pour en faire, par exemple, un outil plus large d’application de la loi.

Cependant, dans un rare cas où une entreprise a fait une promesse ferme de ne pas faire quelque chose, Apple a déclaré définitivement qu’elle n’étendrait pas la portée de ses capacités de numérisation. Selon l’entreprise :

Apple refusera de telles demandes [from a government]. La capacité de détection CSAM d’Apple est conçue uniquement pour détecter les images CSAM connues stockées dans iCloud Photos qui ont été identifiées par des experts du NCMEC et d’autres groupes de sécurité des enfants. Nous avons déjà été confrontés à des demandes de création et de déploiement de changements mandatés par le gouvernement qui dégradent la confidentialité des utilisateurs, et nous avons fermement refusé ces demandes. Nous continuerons à les refuser à l’avenir.

Lors d’une session de questions-réponses de suivi avec des journalistes lundi, Apple a précisé que les fonctionnalités ne sont lancées qu’aux États-Unis, pour le moment. Alors que certaines inquiétudes ont été soulevées quant à savoir si un gouvernement étranger pourrait corrompre ou subvertir ces nouveaux outils pour les utiliser comme une forme de surveillance, Apple a déclaré lundi qu’il mènerait soigneusement des évaluations juridiques pays par pays avant de publier le outils à l’étranger, afin d’éviter tout risque d’abus.

Naturellement, tout cela a dérouté beaucoup de gens, et des questions se posent encore quant à la façon dont ces fonctionnalités fonctionneront réellement et ce que cela signifie pour votre vie privée et l’autonomie de votre appareil. Voici quelques points qu’Apple a récemment clarifiés :

  • Bizarrement, iCloud doit être activé pour que sa fonction de détection CSAM fonctionne réellement. Il y a eu une certaine confusion sur ce point, mais Apple ne recherche essentiellement que le contenu partagé avec son système cloud. Les critiques ont souligné que cela semblerait permettre aux agresseurs d’échapper extrêmement facilement au filet informel mis en place par Apple, car tout ce qu’ils auraient à faire pour masquer le contenu CSAM sur leur téléphone serait de se retirer d’iCloud. Apple a déclaré lundi qu’il croyait toujours que le système serait efficace.
  • Apple ne charge pas de base de données de pornographie juvénile sur votre téléphone. Un autre point que la société a été forcée de clarifier lundi est qu’elle ne téléchargera pas, en fait, le CSAM réel sur votre appareil. Au lieu de cela, il utilise une base de données de « hachages » – des empreintes digitales d’images spécifiques et connues d’abus d’enfants, qui sont représentées sous forme de code numérique. Ce code sera chargé dans le système d’exploitation du téléphone, ce qui permet aux images téléchargées sur le cloud d’être automatiquement comparées aux hachages de la base de données. S’ils ne correspondent pas, cependant, Apple ne s’en soucie pas.
  • iCloud ne se contentera pas de numériser de nouvelles photos, il prévoit de numériser toutes les photos actuellement dans son système cloud. En plus de numériser les photos qui seront téléchargées sur iCloud à l’avenir, Apple prévoit également de numériser toutes les photos actuellement stockées sur ses serveurs cloud. Lors de l’appel de lundi avec les journalistes, Apple a réitéré que c’était le cas.
  • Apple affirme que la mise à jour d’iMessage ne partage aucune information avec Apple ou avec les forces de l’ordre. Selon Apple, la fonctionnalité mise à jour pour iMessage ne partage aucune de vos informations personnelles avec l’entreprise, ni n’alerte les forces de l’ordre. Au lieu de cela, il alerte simplement un parent si son enfant a envoyé ou reçu une image textuelle que l’algorithme d’Apple a jugée de nature sexuelle. « Apple n’a jamais accès aux communications grâce à cette fonctionnalité dans Messages. Cette fonctionnalité ne partage aucune information avec Apple, le NCMEC ou les forces de l’ordre », a déclaré la société. La fonctionnalité n’est disponible que pour les comptes configurés en tant que familles dans iCloud, indique la société.

Malgré les assurances, privacy advles ocates et les experts en sécurité ne sont toujours pas super impressionnés et certains sont plus qu’un peu alarmés. En particulier, lundi, le célèbre expert en sécurité Matthew Green a avancé le scénario hypothétique suivant, qui était suffisamment controversé pour inspirer un argument Twitter mineur entre Edward Snowden et l’ancien responsable de la sécurité de Facebook Alex Stamos dans la section de réponse :

Donc, qu’il suffise de dire, beaucoup de gens ont encore des questions. Nous sommes tous dans un territoire assez inconnu et désordonné ici. S’il est impossible de faire tomber la mission d’Apple, la puissance de la technologie qu’elle déploie a pour le moins alarmé.

.



Vous pouvez lire l’article original (en Angais) sur le sitegizmodo.com