Apple appuie temporairement sur le bouton de pause de ses plans controversés de filtrage des appareils des utilisateurs à la recherche de matériel pédopornographique (CSAM) après avoir reçu un retour de flamme soutenu sur les craintes que l’outil ne soit utilisé comme arme pour la surveillance de masse et érode la vie privée des utilisateurs.
« Sur la base des commentaires des clients, des groupes de défense des droits, des chercheurs et d’autres, nous avons décidé de prendre du temps supplémentaire au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité des enfants d’une importance critique », le fabricant de l’iPhone. mentionné dans une déclaration sur son site Internet.
Les modifications devaient initialement être mises en œuvre avec iOS 15 et macOS Monterey plus tard cette année.
En août, Apple a détaillé plusieurs nouvelles fonctionnalités destinées à aider à limiter la propagation de CSAM sur sa plate-forme, notamment l’analyse des bibliothèques de photos iCloud des utilisateurs à la recherche de contenu illicite, l’application Communication Safety in Messages pour avertir les enfants et leurs parents lors de la réception ou de l’envoi de photos sexuellement explicites, et des conseils étendus dans Siri et Search lorsque les utilisateurs tentent d’effectuer des recherches sur des sujets liés à CSAM.
La technologie dite NeuralHash aurait fonctionné en faisant correspondre les photos sur les iPhones, iPads et Mac des utilisateurs juste avant qu’elles ne soient téléchargées sur iCloud Photos avec une base de données d’images connues d’abus sexuels sur des enfants maintenue par le National Center for Missing and Exploited Children (NCMEC ) sans avoir à posséder les images ou à glaner leur contenu. Les comptes iCloud ayant franchi un seuil défini de 30 hachages correspondants seraient ensuite examinés manuellement, leurs profils seraient désactivés et signalés aux forces de l’ordre.
Les mesures visaient à trouver un compromis entre la protection de la vie privée des clients et la satisfaction des demandes croissantes des agences gouvernementales dans les enquêtes relatives au terrorisme et à la pédopornographie – et par extension, offrent une solution au soi-disant « devenir sombre » problème des criminels profitant des protections de cryptage pour masquer leurs activités de contrebande.
Cependant, les propositions ont rencontré un contrecoup quasi instantané, l’Electronic Frontier Foundation (EFF) appelant le géant de la technologie pour avoir tenté de créer un système de surveillance sur l’appareil, ajoutant « un document soigneusement documenté, soigneusement pensé et étroitement – La porte dérobée à portée est toujours une porte dérobée. »
Mais dans un e-mail circulaient en interne chez Apple, des militants pour la sécurité des enfants ont été trouvés rejetant les plaintes des militants de la vie privée et des chercheurs en sécurité comme la « voix hurlante de la minorité ».
Apple est depuis intervenu pour apaiser les inquiétudes potentielles découlant de conséquences imprévues, repoussant la possibilité que le système puisse être utilisé pour détecter d’autres formes de photos à la demande de gouvernements autoritaires. « Soyons clairs, cette technologie se limite à détecter le CSAM stocké dans iCloud et nous n’accéderons à aucune demande d’un gouvernement pour l’étendre », a déclaré la société.
Pourtant, cela n’a rien fait pour apaiser les craintes que l’analyse côté client puisse constituer des invasions troublantes de la vie privée et qu’elle puisse être étendue à d’autres abus et fournir un modèle pour briser le cryptage de bout en bout. Cela n’a pas aidé non plus que les chercheurs puissent créer « collisions de hachage » – alias les faux positifs – en procédant à une ingénierie inverse de l’algorithme, conduisant à un scénario dans lequel deux images complètement différentes généraient la même valeur de hachage, incitant ainsi le système à penser que les images étaient les mêmes alors qu’elles ne le sont pas.
« Mes suggestions à Apple : (1) parlez aux communautés techniques et politiques avant de faire ce que vous allez faire. Parlez également au grand public. Ce n’est pas une nouvelle Touch Bar sophistiquée : c’est un compromis sur la confidentialité qui affecte 1 milliard d’utilisateurs », Matthew D. Green, professeur à Johns Hopkins et chercheur en sécurité. tweeté.
« Soyez clair sur la raison pour laquelle vous numérisez et ce que vous numérisez. Passer de la numérisation de rien (sauf des pièces jointes aux e-mails) à la numérisation de la photothèque privée de tout le monde était un énorme delta. Vous devez justifier des escalades comme celle-ci », a ajouté Green.