Au cours des dernières semaines, Apple a été critiqué pour son plan de déploiement d’un fonction de numérisation dans iOS 15 qui rechercherait les utilisateurs iPhone pour du matériel pédopornographique ou CSAM. Les plans d’Apple impliquaient l’utilisation d’une technologie appelée NeuralHash pour rechercher CSAM sur chaque iPhone aux États-Unis.

Temps de lecture estimé : 3 minutes

Bien qu’à première vue, cela semble être une excellente idée, certains experts et défenseurs de la vie privée estiment que cela ouvre une porte dérobée à Apple ou à d’autres pour abuser du NeuralHash système. Bien qu’Apple recherche CSAM peut sembler audacieux et louable, cela laisse les utilisateurs ouverts à être analysés pour à peu près n’importe quoi.

Apple a déclaré vendredi qu’il suspendait les tests de l’outil CSAM pour recueillir plus de commentaires et essayer d’améliorer le système.

« Le mois dernier, nous avons annoncé des plans pour des fonctionnalités destinées à aider à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et à limiter la propagation du matériel d’abus sexuel d’enfants », a déclaré la société.

« Sur la base des commentaires des clients, des groupes de défense des droits, des chercheurs et d’autres, nous avons décidé de prendre du temps supplémentaire au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité des enfants d’une importance cruciale. »

MSN

Tandis que Pomme suspend le déploiement et les tests, il insiste toujours sur le fait que la confidentialité des consommateurs est de la plus haute importance pour eux. La société affirme que l’outil CSAM ne transformerait les photos sur iPhones et iPads qu’en hachages illisibles ou en nombres complexes. Apple comparerait ensuite les chiffres à la base de données du National Center for Missing and Exploited Children, et seuls les hachages correspondants seraient signalés.

Publicité

Pourtant, les défenseurs de la vie privée comme l’EFF et Edward Snowden pensent qu’Apple devrait abandonner complètement ses plans de surveillance.

Je suis d’accord avec ça. @Pomme doit aller plus loin que simplement « écouter » – il doit abandonner complètement ses plans pour mettre une porte dérobée dans des systèmes qui offrent des protections vitales au public. Ne nous forcez pas à vous battre pour des droits fondamentaux à la vie privée.
https://t.co/n4adiy6f0n

Les fonctionnalités annoncées par Apple il y a un mois, destinées à aider à protéger les enfants, créeraient une infrastructure trop facile à rediriger vers une surveillance et une censure accrues. Ces fonctionnalités créerait un énorme danger à la confidentialité et à la sécurité des utilisateurs d’iPhone, offrant aux gouvernements autoritaires un nouveau système de surveillance de masse espionner les citoyens.

FEP

Il sera intéressant de voir comment tout cela se déroule. Pour l’instant, l’analyse CSAM est en attente.

Que pensez-vous de cette histoire? Veuillez partager vos réflexions sur l’une des pages de médias sociaux énumérées ci-dessous. Vous pouvez également commenter notre Page MeWe en rejoignant le réseau social MeWe.

Csam

Dernière mise à jour le 4 septembre 2021.

Analyse Csam De L'Iphone


Rate this post
Publicité
Article précédentTake-Two poursuit les créateurs du projet d’ingénierie inverse GTA Re3
Article suivantLes flics de Stephens abusent après la défaite à l’US Open

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici