Mises à jour Apple Inc

Apple a l’intention d’installer un logiciel sur les iPhones américains pour rechercher des images d’abus d’enfants, selon des personnes informées de ses plans, alarmant les chercheurs en sécurité qui avertissent que cela pourrait ouvrir la porte à la surveillance d’appareils personnels de millions de personnes.

Apple a détaillé son système proposé – connu sous le nom de « neuralMatch » – à certains universitaires américains plus tôt cette semaine, selon deux chercheurs en sécurité informés de la réunion virtuelle.

Publicité

Le système automatisé alerterait de manière proactive une équipe d’examinateurs humains s’il pense que des images illégales sont détectées, qui contacteraient ensuite les forces de l’ordre si le matériel peut être vérifié. Le programme ne sera initialement déployé qu’aux États-Unis.

Apple a confirmé ses plans dans un article de blog, affirmant que la technologie de numérisation fait partie d’une nouvelle suite de systèmes de protection de l’enfance qui « évolueraient et se développeraient au fil du temps ». Les fonctionnalités seront déployées dans le cadre d’iOS 15, qui devrait sortir le mois prochain.

« Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l’ordre concernant la prolifération des CSAM connus. [child sexual abuse material]», a déclaré la société.

« Et il le fait tout en offrant des avantages significatifs en matière de confidentialité par rapport aux techniques existantes, car Apple n’apprend les photos des utilisateurs que s’ils ont une collection de CSAM connus dans leur compte iCloud Photos. »

Les propositions sont la tentative d’Apple de trouver un compromis entre sa propre promesse de protéger la vie privée des clients et les demandes continues des gouvernements, des forces de l’ordre et des militants de la sécurité des enfants pour plus d’aide dans les enquêtes criminelles, y compris le terrorisme et la pornographie enfantine.

La tension entre les entreprises technologiques telles qu’Apple et Facebook, qui ont défendu leur utilisation croissante du cryptage dans leurs produits et services, et les forces de l’ordre ne s’est intensifiée que depuis que le fabricant de l’iPhone est allé en justice avec le FBI en 2016 pour l’accès à l’iPhone d’un suspect terroriste. suite à une fusillade à San Bernardino, en Californie.

Les chercheurs en sécurité, tout en soutenant les efforts de lutte contre la maltraitance des enfants, craignent qu’Apple ne permette aux gouvernements du monde entier de demander l’accès aux données personnelles de leurs citoyens, potentiellement bien au-delà de son intention initiale.

« C’est une idée absolument épouvantable, car elle va conduire à une surveillance en masse distribuée des fichiers . . . nos téléphones et ordinateurs portables », a déclaré Ross Anderson, professeur d’ingénierie de la sécurité à l’Université de Cambridge.

Bien que le système soit actuellement formé pour détecter les abus sexuels sur enfants, il pourrait être adapté pour rechercher d’autres images et textes ciblés, par exemple, des décapitations terroristes ou des signes anti-gouvernementaux lors de manifestations, selon les chercheurs. Le précédent d’Apple pourrait également augmenter la pression sur d’autres entreprises technologiques pour qu’elles utilisent des techniques similaires.

« Cela brisera le barrage – les gouvernements l’exigeront de tout le monde », a déclaré Matthew Green, professeur de sécurité à l’Université Johns Hopkins, qui serait le premier chercheur à publier un tweet sur la question.

Alec Muffett, chercheur en sécurité et militant pour la protection de la vie privée qui travaillait auparavant chez Facebook et Deliveroo, a déclaré que la décision d’Apple était « tectonique » et une « étape énorme et régressive pour la vie privée des individus ».

« Apple revient sur la confidentialité pour permettre 1984, » il a dit.

Les systèmes de stockage de photos basés sur le cloud et les sites de réseaux sociaux recherchent déjà des images d’abus d’enfants, mais ce processus devient plus complexe lorsque vous essayez d’accéder aux données stockées sur un appareil personnel.

Le système d’Apple est moins invasif dans la mesure où le filtrage se fait par téléphone, et « seulement s’il y a une correspondance, une notification est renvoyée à ceux qui recherchent », a déclaré Alan Woodward, professeur de sécurité informatique à l’Université de Surrey. « Cette approche décentralisée concerne la meilleure approche que vous puissiez adopter si vous suivez cette voie. »

L’algorithme neuralMatch d’Apple numérisera en continu les photos stockées sur l’iPhone d’un utilisateur américain et qui ont également été téléchargées sur son système de sauvegarde iCloud. Les photos des utilisateurs, converties en une chaîne de chiffres par un processus connu sous le nom de « hachage », seront comparées à celles d’une base de données d’images connues d’abus sexuels sur des enfants.

Le système a été formé sur 200 000 images d’abus sexuels collectées par le National Center for Missing and Exploited Children des États-Unis.

Selon les personnes informées des plans, chaque photo téléchargée sur iCloud aux États-Unis recevra un « bon de sécurité » indiquant si elle est suspecte ou non. Une fois qu’un certain nombre de photos sont marquées comme suspectes, Apple permettra de décrypter toutes les photos suspectes et, si apparemment illégales, de les transmettre aux autorités compétentes.


Rate this post
Publicité
Article précédentJennifer Hudson ne savait pas que les chats la feraient ressembler à un chat
Article suivantDragon Ball Super Fan canalise Prince dans Royal Vegeta Cosplay

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici