Un groupe de scientifiques et de chercheurs a vivement critiqué les projets de la Commission européenne visant à analyser les applications des smartphones à la recherche de preuves d’abus sexuels sur des enfants, les qualifiant de « voués à l’inefficacité ».

La CE a proposé une nouvelle loi visant à stopper la diffusion d’images d’abus sexuels sur des enfants et le toilettage d’enfants en permettant aux autorités nationales d’obliger les fournisseurs d’applications pour smartphones et de services en ligne à scanner les appareils individuels.

La loi autoriserait la numérisation des messages, photos, e-mails, messages vocaux et autres données téléphoniques des utilisateurs. Il chercherait à surmonter le chiffrement de bout en bout, utilisé par les applications de messagerie populaires telles que WhatsApp, en permettant la numérisation directement dans le propre appareil d’une personne – un processus connu sous le nom de numérisation côté client (CSS).

Cependant, dans une lettre ouverte aux membres du Parlement européen et du Conseil européen, le groupe en question – comprenant les universitaires britanniques, le professeur Ross Anderson et le professeur Michael Veale – a critiqué les propositions, affirmant que les technologies de numérisation « qui existent actuellement et qui sont sur l’horizon sont profondément imparfaits ».

« Extrêmement nocif »

Publicité

« Ces failles… impliquent que la numérisation est vouée à l’inefficacité », ont-ils déclaré, ajoutant que l’intégration d’une telle technologie dans les applications existantes créerait des « effets secondaires » susceptibles d’être « extrêmement nocifs pour tout le monde en ligne, et qui pourraient rendre le internet et la société numérique moins sûres pour tout le monde ».

« Compte tenu de la nature horrible des abus sexuels sur les enfants, il est compréhensible, et même tentant, d’espérer qu’il existe une intervention technologique qui puisse les éradiquer », a déclaré le groupe.

Ils ont cependant ajouté qu’ils « ne peuvent pas échapper à la conclusion que la proposition actuelle n’est pas une telle intervention ».

« Il n’est ni faisable ni tenable d’exiger des entreprises privées qu’elles utilisent des technologies d’une manière dont nous savons déjà qu’elles ne peuvent pas être faites en toute sécurité – ou même pas du tout », ont-ils déclaré.

Ils ont fait valoir que le règlement proposé « créerait un précédent mondial pour filtrer Internet, contrôler qui peut y accéder et supprimer certains des rares outils disponibles pour que les gens protègent leur droit à une vie privée dans l’espace numérique ».

« Nous mettons donc fortement en garde contre la poursuite de ces mesures ou de mesures similaires car leur succès n’est pas possible compte tenu de la technologie actuelle et prévisible, alors que leur potentiel de préjudice est substantiel », indique la lettre.

En décrivant la nature défectueuse perçue de la technologie qui existe actuellement pour rechercher du matériel criminel, le groupe a déclaré que plus de deux décennies de recherche sur ces technologies n’ont produit « aucun progrès substantiel ».

Ils ont dit qu’il était « pratiquement toujours possible » pour ceux qui diffusent du matériel tel que des images d’abus sexuels sur des enfants de rendre ces fichiers impossibles à détecter en modifiant subtilement le code d’une image.

De même, des images innocentes pourraient être manipulées pour renvoyer de faux positifs, ont déclaré les universitaires.

Réserves sérieuses

« Nous avons de sérieuses réserves quant à l’efficacité des technologies imposées par le règlement : les auteurs seraient au courant de ces technologies et passeraient à de nouvelles techniques, services et plateformes pour échanger des informations sur les abus sexuels sur des enfants tout en évitant d’être détectés », ont-ils déclaré.

Ils ont en outre mis en garde contre les « implications techniques » de toute mesure prise pour affaiblir le chiffrement de bout en bout, qui est conçu pour que seuls l’expéditeur et le destinataire d’un message puissent voir son contenu.

Le groupe a noté que CSS revenait à « ajouter des caméras vidéo dans nos maisons pour écouter chaque conversation et envoyer des rapports lorsque nous parlons de sujets illicites », alors que le seul déploiement d’une telle technologie dans le monde occidental, par Apple en 2021, a ensuite été retiré. après moins de quinze jours en raison de « problèmes de confidentialité et du fait que le système avait déjà été détourné et manipulé ».

->Google Actualités

4.8/5 - (24 votes)
Publicité
Article précédent10 meilleurs sites d’atterrissage dans Fortnite Chapter 4 Season 3
Article suivantpubg : Une Pakistanaise tombe amoureuse d’un Indien sur PUBG, traverse illégalement la frontière avec 4 enfants ; voici ce qui s’est passé

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici