Apple a annoncé qu’il informerait les parents si leurs enfants envoient ou reçoivent des photos sexuelles sur leurs iPhones et iPads.
Une nouvelle fonctionnalité de l’application Messages avertira les enfants et leurs parents utilisant des comptes familiaux liés lorsque des photos sexuellement explicites sont envoyées ou reçues, des alertes à l’écran apparaissant et des images bloquées.
L’outil rassurera les enfants sur le fait que ce n’est pas grave s’ils ne veulent pas voir l’image, tout en leur présentant des ressources utiles.
Il les informera également qu’à titre de précaution supplémentaire, s’ils choisissent de voir l’image, leurs parents recevront une notification.
Des protections similaires seront en place si un enfant tente d’envoyer une image sexuellement explicite, a déclaré Apple.
C’est l’un des nombreux nouveaux outils de sécurité des enfants conçus pour protéger les jeunes et limiter la diffusion de matériel pédopornographique (CSAM).
Parmi les fonctionnalités figure une nouvelle technologie qui permettra à Apple de détecter les images CSAM connues stockées dans iCloud Photos et de les signaler aux organismes chargés de l’application de la loi.
Les conseils dans Siri et Search dirigeront également les utilisateurs vers des ressources pertinentes lorsqu’ils effectuent des recherches liées à CSAM.
Les outils devraient être introduits dans le cadre de la mise à jour logicielle iOS et iPadOS 15 à l’automne, et seront initialement introduits aux États-Unis uniquement, mais avec des plans pour s’étendre davantage au fil du temps.
Apple a déclaré que les outils de détection ont été conçus pour protéger la confidentialité des utilisateurs et ne permettent pas au géant de la technologie de voir ou de numériser l’album photo d’un utilisateur.
Au lieu de cela, le système recherchera des correspondances en toute sécurité sur l’appareil, sur la base d’une base de données de « hachages » (un type d’empreinte numérique) d’images CSAM connues fournies par les organisations de sécurité de l’enfance.
Cette correspondance n’aura lieu que lorsqu’un utilisateur tentera de télécharger une image dans sa bibliothèque de photos iCloud.
Apple a déclaré que ce n’est que si un seuil de correspondances pour un contenu préjudiciable est dépassé qu’il serait alors en mesure d’examiner manuellement le contenu pour confirmer la correspondance, puis d’envoyer un rapport aux organisations de sécurité.
La société a réitéré que les nouveaux outils de détection CSAM ne s’appliqueraient qu’à ceux qui utilisent iCloud Photos et ne permettraient pas à la société ni à quiconque de numériser les images sur la pellicule d’un utilisateur.
Cependant, les critiques soutiennent que les outils représentent une invasion inquiétante de la vie privée.
Selon le Courrier quotidien, Ross Anderson – professeur d’ingénierie de la sécurité à l’Université de Cambridge – a déclaré: « C’est une idée absolument épouvantable, car elle va conduire à une surveillance en masse distribuée de nos téléphones et ordinateurs portables. »
.