Les utilisateurs d’iPhone ont faire des réserves avec beaucoup ces derniers mois, mais le nouveau Système de détection CSAM s’est avéré être un paratonnerre de controverse qui se démarque de tout le reste. Et si vous envisagez de quitter votre iPhone à cause de cela, un nouveau rapport choquant pourrait vous pousser à bout.
Dans un nouvel éditorial publié par Le Washington Post, une paire de chercheurs qui ont passé deux ans à développer un système de détection CSAM (matériel d’abus sexuels sur enfants) similaire à celui qu’Apple prévoit d’installer sur les iPhones, iPads et Macs des utilisateurs le mois prochain, ont délivré un avertissement sans équivoque : c’est dangereux.
« Nous avons écrit le seul publication à comité de lecture sur la façon de construire un système comme celui d’Apple – et nous avons conclu que la technologie était dangereuse », déclarent Jonathan Mayer et Anunay Kulshrestha, les deux universitaires de Princeton à l’origine de la recherche. « Notre système pourrait être facilement réutilisé pour la surveillance et la censure. La conception n’était pas limitée à une catégorie spécifique de contenu ; un service pourrait simplement échanger dans n’importe quelle base de données de correspondance de contenu, et la personne utilisant ce service n’en serait pas plus avisée.
Cela a été la crainte prédominante concernant l’initiative CSAM d’Apple. L’objectif de la technologie visant à réduire la maltraitance des enfants est incontestablement important, mais les dommages potentiels qui pourraient provenir de pirates informatiques et de gouvernements manipulant un système conçu pour rechercher vos photos iCloud et signaler un contenu abusif sont clairs pour tous.
« La Chine est le deuxième marché d’Apple, avec probablement des centaines de millions d’appareils. Qu’est-ce qui empêche le gouvernement chinois d’exiger qu’Apple analyse ces appareils à la recherche de matériel pro-démocratie ? » demandent les chercheurs.
Et les critiques ont beaucoup de munitions ici. Plus tôt cette année, Apple a été accusé de compromis sur la censure et la surveillance en Chine après avoir accepté de déplacer les données personnelles de ses clients chinois vers les serveurs d’une entreprise publique chinoise. Apple aussi États qu’elle a fourni des données clients au gouvernement américain près de 4 000 fois l’année dernière.
« Nous avons repéré d’autres lacunes », expliquent Mayer et Kulshrestha. « Le processus de correspondance de contenu pourrait avoir de faux positifs, et des utilisateurs malveillants pourraient jouer avec le système pour soumettre des utilisateurs innocents à un examen minutieux. »
Et l’histoire récente n’augure rien de bon. Le mois dernier, des révélations sur le Projet Pégase a exposé une entreprise mondiale qui piratait avec succès des iPhones pendant des années et vendait leur technologie à des gouvernements étrangers pour la surveillance d’activistes anti-régime, de journalistes et de dirigeants politiques de pays rivaux. Avec l’accès à la technologie Apple conçue pour numériser et signaler les photos iCloud d’un milliard de propriétaires d’iPhone, cela pourrait aller beaucoup plus loin.
Avant que Mayer et Kulshrestha ne s’expriment, plus de 90 groupes de défense des droits civiques dans le monde avaient déjà écrit une lettre à Apple affirmant que la technologie derrière CSAM « aura jeté les bases de la censure, de la surveillance et de la persécution à l’échelle mondiale ».
Apple a par la suite défendu son système CSAM, affirmant qu’il était mal communiqué et qu’il s’agissait d’une « recette pour ce genre de confusion », mais les réponses de l’entreprise n’ont guère impressionné Mayer et Kulshrestha.
« La motivation d’Apple, comme la nôtre, était de protéger les enfants. Et son système était techniquement plus efficace et capable que le nôtre », ont-ils déclaré. « Mais nous avons été déconcertés de voir qu’Apple avait peu de réponses aux questions difficiles que nous avions soulevées. »
Maintenant, Apple se retrouve dans un gâchis de sa propre fabrication. Pendant des années, la société a déployé des efforts considérables pour se promouvoir en tant que champion de la confidentialité des utilisateurs avec les page de confidentialité officielle déclarant :
« La vie privée est un droit humain fondamental. Chez Apple, c’est aussi l’une de nos valeurs fondamentales. Vos appareils sont importants pour de nombreux aspects de votre vie. Ce que vous partagez de ces expériences, et avec qui vous le partagez, devrait dépendre de vous. Nous concevons des produits Apple pour protéger votre vie privée et vous donner le contrôle de vos informations. Ce n’est pas toujours facile. Mais c’est le genre d’innovation auquel nous croyons.
CSAM sera lancé sur iOS 15, iPadOS 15, watchOS 8 et macOS Monterey le mois prochain. Je suppose que pour de nombreux fans d’Apple, cela marquera le moment de s’éloigner.
___
Suivez Gordon sur Facebook
Plus sur Forbes
Le nouveau hack ‘Zero Day’ de l’iPhone existe depuis des mois
.