Plus d’une douzaine d’experts en cybersécurité critiquent les projets d’Apple et de l’Union européenne de numériser des photos sur les téléphones des personnes à la recherche de matériel connu d’abus sexuel d’enfants (CSAM), le New York Times rapports. Dans une étude de 46 pages, les experts affirment que la technologie de numérisation de photos est non seulement inefficace, mais qu’elle constitue également une « technologie dangereuse ».
Les experts ont déclaré au NYT qu’ils avaient commencé leur étude avant qu’Apple n’annonce ses plans CSAM en août. C’est parce que l’UE a publié documents l’année dernière, cela indiquait que le gouvernement souhaitait mettre en œuvre un programme similaire qui non seulement analysait le CSAM, mais aussi le crime organisé et le terrorisme sur des appareils cryptés. Les chercheurs ont également déclaré qu’ils pensaient qu’une proposition visant à autoriser cette technologie dans l’UE pourrait arriver dès cette année.
La façon dont la technologie fonctionne est qu’elle numérise les photos sur votre téléphone avant qu’elles ne soient envoyées et cryptées sur le cloud. Ces photos sont ensuite comparées à une base de données d’images CSAM connues. Alors qu’Apple a essayé plusieurs fois de clarifier le fonctionnement de la fonctionnalité et libéré FAQ complète, les experts en sécurité et en confidentialité étaient catégoriques sur le fait qu’Apple avait construit une « porte arrière » dont les gouvernements et les forces de l’ordre pourraient abuser pour surveiller les citoyens respectueux des lois. Apple a essayé d’apaiser ces craintes en lui promettant ne laisserait pas les gouvernements utiliser ses outils de cette façon. Ces promesses n’a pas apaisé les experts à l’époque, et certains chercheurs ont affirmé qu’ils étaient en mesure de rétro-ingénierie l’algorithme et le tromper en enregistrant des faux positifs.
Au milieu du contrecoup, Apple appuyez sur pause sur son programme début septembre. Cependant, appuyer sur pause n’est pas la même chose que débrancher la prise. Au lieu de cela, Apple a déclaré qu’il faudrait un peu plus de temps pour affiner la fonctionnalité, mais n’a pas fourni de détails sur ce à quoi ressemblerait ce processus de révision ou quel serait son nouveau calendrier de publication.
La chose préoccupante ici est que même si Apple finit par annuler ses plans CSAM, l’UE était déjà en train de construire un dossier pour sa propre version – et une avec une portée plus large. Les experts ont déclaré au NYT que la raison pour laquelle ils publiaient leurs conclusions maintenant était d’avertir l’UE des dangers d’ouvrir cette boîte de Pandore particulière.
G/O Media peut toucher une commission
« Cela permet de scanner un appareil privé personnel sans aucune cause probable pour quoi que ce soit d’illégitime », a déclaré Susan Landau, professeur de cybersécurité et de politique à l’Université Tufts, au New York Times. « C’est extraordinairement dangereux. C’est dangereux pour les affaires, la sécurité nationale, la sécurité publique et la vie privée.
Il est facile de se perdre dans les mauvaises herbes lorsqu’il s’agit du débat CSAM. Apple, par exemple, a lancé une campagne de relations publiques inhabituellement négligée pour expliquer chaque écrou et boulon de ses sécurités de confidentialité. (Divulgacher: Tout le monde était encore massivement confus.) Cependant, la question n’est pas de savoir si vous pouvez rendre ce type d’outil sûr et privé, c’est de savoir s’il devrait exister à ce titre. Et si vous demandiez aux experts en sécurité, il semble les retentissant réponse est « non ».
.
Vous pouvez lire l’article original (en Angais) sur le bloggizmodo.com