Image Représentative.

Image représentative.  |  Crédit photo : Twitter

Points saillants

  • Apple a tenté de préciser, via un article de blog, que la numérisation de ces images se fera sans réellement voir l’image, mais uniquement à la recherche d’une « correspondance d’empreintes digitales ».
  • De plus, Apple prévoit également d’analyser les messages texte cryptés des utilisateurs pour tout contenu sexuellement explicite afin de protéger les enfants.
  • Bien que célébrés par les organisations de défense des droits de l’homme, les organismes de surveillance de la sécurité ont fait part de leurs inquiétudes quant à la dérive de la confidentialité résultant du déploiement des dernières mesures

Dans un mouvement qui a suscité des applaudissements et des critiques, Apple a annoncé le déploiement d’une nouvelle fonctionnalité qui analysera les images et les messages texte sur les iPhones et autres appareils Apple à la recherche d’images connues d’abus sexuels sur des enfants.

Le logiciel, a déclaré Apple dans un communiqué, « aidera à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et à limiter la propagation du matériel d’abus sexuels sur enfants (CSAM) ».

Publicité

L’outil, « neuralMatch », conçu pour rechercher des images connues d’abus sexuels sur des enfants, le fera avant qu’une image ne soit téléchargée sur iCloud. S’il détecte une correspondance, l’image sera envoyée pour examen par un humain. Si l’image en question s’avère être de la pornographie enfantine, le compte de l’utilisateur sera immédiatement désactivé et le Centre national pour les enfants disparus et exploités (NCMEC) en sera informé.

Apple a tenté de préciser, via un article de blog, que la numérisation de ces images se fera sans réellement voir l’image, mais uniquement à la recherche d’une « correspondance d’empreintes digitales ». Ce n’est que lorsque ces correspondances dépassent un certain seuil que le NCMEC en sera informé.

Il a déclaré que la base de données d’images connues d’abus sexuels sur des enfants est transformée en « un ensemble illisible de hachages qui est stocké en toute sécurité sur les appareils des utilisateurs ». Avant qu’une image ne soit téléchargée sur iCloud, le système d’exploitation vérifiera si elle correspond aux hachages CSAM connus à l’aide d’une « technologie cryptographique appelée intersection d’ensembles privés ».

Un « bon de sécurité cryptographique » qui comprend le match, le résultat et d’autres données cryptées sera ensuite enregistré sur iCloud avec l’image. Ces bons, a déclaré Apple, ne peuvent être déchiffrés par Apple que si un certain seuil CSAM est franchi. De plus, Apple prévoit également d’analyser les messages texte cryptés des utilisateurs pour tout contenu sexuellement explicite afin de protéger les enfants.

Préoccupations relatives à la dérive de la vie privée

Bien que célébrés par les organisations de défense des droits de l’homme, les organismes de surveillance de la sécurité ont fait part de leurs inquiétudes quant à la dérive de la confidentialité résultant du déploiement des dernières mesures. Will Cathcart, le responsable de WhatsApp, connu pour son cryptage de bout en bout qui empêche quiconque d’accéder au contenu partagé entre les utilisateurs du service de messagerie texte, a déclaré : « Je pense que c’est la mauvaise approche et un revers pour les gens la vie privée partout dans le monde.

« Ce logiciel de numérisation exécuté sur votre téléphone peut-il être infaillible ? Les chercheurs n’ont pas été autorisés à le découvrir », a-t-il poursuivi sur Twitter.

Mathew Green, un éminent chercheur en cryptographie à l’Université Johns Hopkins, a exprimé des sentiments similaires, avertissant également que l’outil peut être utilisé par des acteurs malveillants pour piéger des individus en envoyant des images inoffensives qui déclenchent des correspondances pédopornographiques, trompant efficacement le logiciel.

« Les chercheurs ont pu le faire assez facilement », a-t-il déclaré. Il a également alerté sur la possibilité que des gouvernements ou des agences gouvernementales abusent du logiciel pour réprimer les dissidents. « Que se passe-t-il lorsque le gouvernement chinois dit : « Voici une liste de fichiers que nous voulons que vous numérisiez ? » Apple dit non ? J’espère qu’ils diront non, mais leur technologie ne dira pas non », a-t-il déclaré.

Il convient de mentionner que les entreprises technologiques comme Apple, Google et Facebook subissent des pressions croissantes de la part du gouvernement et des autorités chargées de l’application des lois pour fournir un accès au contenu crypté partagé entre les utilisateurs. Trouver un équilibre entre la répression des activités criminelles telles que le partage et la consommation de pornographie juvénile et le maintien des niveaux élevés de confidentialité que ces entreprises ont insisté pour qu’ils continuent d’exister sur leurs logiciels s’avère être un défi.

Cependant, d’autres ont salué les dernières fonctionnalités d’Apple. John Clark, président-directeur général du NCMEC, a déclaré dans un communiqué : « La protection étendue d’Apple pour les enfants change la donne.

« Avec autant de personnes utilisant des produits Apple, ces nouvelles mesures de sécurité ont un potentiel de sauvetage pour les enfants », a-t-il ajouté.

Rate this post
Publicité
Article précédentPourquoi vous préférez Microsoft Edge à Google Chrome
Article suivantLa députée Apsana Begum à l’occasion de son procès

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici