Les utilisateurs d’iPhone ont faire des réserves avec beaucoup ces derniers mois, mais le nouveau Système de détection CSAM s’est avéré être un paratonnerre de controverse qui se démarque de tout le reste. Et si vous envisagez de quitter votre iPhone à cause de cela, un nouveau rapport choquant pourrait vous pousser à bout.

PLUS DE FORBESProblème de téléphonie cellulaire iPhone « Pas de service » signalé par les mises à niveau iOS 14.7.1

Dans un nouvel éditorial publié par Le Washington Post, une paire de chercheurs qui ont passé deux ans à développer un système de détection CSAM (matériel d’abus sexuels sur enfants) similaire à celui qu’Apple prévoit d’installer sur les iPhones, iPads et Macs des utilisateurs le mois prochain, ont délivré un avertissement sans équivoque : c’est dangereux.

« Nous avons écrit le seul publication à comité de lecture sur la façon de construire un système comme celui d’Apple – et nous avons conclu que la technologie était dangereuse », déclarent Jonathan Mayer et Anunay Kulshrestha, les deux universitaires de Princeton à l’origine de la recherche. « Notre système pourrait être facilement réutilisé pour la surveillance et la censure. La conception n’était pas limitée à une catégorie spécifique de contenu ; un service pourrait simplement échanger dans n’importe quelle base de données de correspondance de contenu, et la personne utilisant ce service n’en serait pas plus avisée.

Publicité

Cela a été la crainte prédominante concernant l’initiative CSAM d’Apple. L’objectif de la technologie visant à réduire la maltraitance des enfants est incontestablement important, mais les dommages potentiels qui pourraient provenir de pirates informatiques et de gouvernements manipulant un système conçu pour rechercher vos photos iCloud et signaler un contenu abusif sont clairs pour tous.

« La Chine est le deuxième marché d’Apple, avec probablement des centaines de millions d’appareils. Qu’est-ce qui empêche le gouvernement chinois d’exiger qu’Apple analyse ces appareils à la recherche de matériel pro-démocratie ? » demandent les chercheurs.

Et les critiques ont beaucoup de munitions ici. Plus tôt cette année, Apple a été accusé de compromis sur la censure et la surveillance en Chine après avoir accepté de déplacer les données personnelles de ses clients chinois vers les serveurs d’une entreprise publique chinoise. Apple aussi États qu’elle a fourni des données clients au gouvernement américain près de 4 000 fois l’année dernière.

« Nous avons repéré d’autres lacunes », expliquent Mayer et Kulshrestha. « Le processus de correspondance de contenu pourrait avoir de faux positifs, et des utilisateurs malveillants pourraient jouer avec le système pour soumettre des utilisateurs innocents à un examen minutieux. »

Et l’histoire récente n’augure rien de bon. Le mois dernier, des révélations sur le Projet Pégase a exposé une entreprise mondiale qui piratait avec succès des iPhones pendant des années et vendait leur technologie à des gouvernements étrangers pour la surveillance d’activistes anti-régime, de journalistes et de dirigeants politiques de pays rivaux. Avec l’accès à la technologie Apple conçue pour numériser et signaler les photos iCloud d’un milliard de propriétaires d’iPhone, cela pourrait aller beaucoup plus loin.

Avant que Mayer et Kulshrestha ne s’expriment, plus de 90 groupes de défense des droits civiques dans le monde avaient déjà écrit une lettre à Apple affirmant que la technologie derrière CSAM « aura jeté les bases de la censure, de la surveillance et de la persécution à l’échelle mondiale ».

Apple a par la suite défendu son système CSAM, affirmant qu’il était mal communiqué et qu’il s’agissait d’une « recette pour ce genre de confusion », mais les réponses de l’entreprise n’ont guère impressionné Mayer et Kulshrestha.

« La motivation d’Apple, comme la nôtre, était de protéger les enfants. Et son système était techniquement plus efficace et capable que le nôtre », ont-ils déclaré. « Mais nous avons été déconcertés de voir qu’Apple avait peu de réponses aux questions difficiles que nous avions soulevées. »

Maintenant, Apple se retrouve dans un gâchis de sa propre fabrication. Pendant des années, la société a déployé des efforts considérables pour se promouvoir en tant que champion de la confidentialité des utilisateurs avec les page de confidentialité officielle déclarant :

« La vie privée est un droit humain fondamental. Chez Apple, c’est aussi l’une de nos valeurs fondamentales. Vos appareils sont importants pour de nombreux aspects de votre vie. Ce que vous partagez de ces expériences, et avec qui vous le partagez, devrait dépendre de vous. Nous concevons des produits Apple pour protéger votre vie privée et vous donner le contrôle de vos informations. Ce n’est pas toujours facile. Mais c’est le genre d’innovation auquel nous croyons.

CSAM sera lancé sur iOS 15, iPadOS 15, watchOS 8 et macOS Monterey le mois prochain. Je suppose que pour de nombreux fans d’Apple, cela marquera le moment de s’éloigner.

___

Suivez Gordon sur Facebook

Plus sur Forbes

Problème de téléphonie cellulaire iPhone « Pas de service » signalé par les mises à niveau iOS 14.7.1

Le nouveau hack ‘Zero Day’ de l’iPhone existe depuis des mois

.

Rate this post
Publicité
Article précédentPresque un millionnaire Bitcoin mais seulement s’il connaissait son mot de passe
Article suivantCette extension Google Chrome peut revenir sur les modifications de conception de Twitter

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici