Masques

Copyright de l’image
Getty Images

Un contenu en ligne trompeur et préjudiciable à propos de Covid-19 s’est répandu “avec virulence” parce que le Royaume-Uni n’a toujours pas de loi pour réglementer les médias sociaux, a déclaré un groupe influent de députés.

La commission du numérique, de la culture, des médias et des sports a exhorté le gouvernement à publier un projet de loi promis d’ici l’automne.

Il suit les suggestions que le projet de loi sur les dommages en ligne pourrait ne pas être en vigueur avant 2024.

Le président du groupe a déclaré que les entreprises de technologie ne pouvaient pas être laissées à l’auto-régulation.

«Nous n’avons toujours pas vu une architecture législative correcte mise en place, et nous comptons toujours sur la conscience des entreprises de médias sociaux», a déclaré Julian Knight.

“Ce n’est tout simplement pas assez bon. Notre législation n’est en aucun cas adaptée à son objectif, et nous attendons toujours. Ce que j’ai vu jusqu’à présent, c’est juste beaucoup de retard.”

Google et Facebook ont ​​déclaré avoir investi dans des mesures pour lutter contre les publications qui enfreignent leurs directives.

Mais le rapport a déjà été bien accueilli par l’organisation caritative pour enfants NSPCC.

“Le comité a raison de s’inquiéter du rythme de la législation et de savoir si le régulateur aura les dents dont il a besoin”, a déclaré Andy Burrows, responsable de la politique en ligne sur la sécurité des enfants.

‘Devoir d’attention’

Le rapport du comité demande spécifiquement que les recommandations énoncées dans le document sur les dangers en ligne publié en avril de l’année dernière soient adoptées.

Le document suggérait qu’un «devoir de diligence» légal devrait être créé pour forcer les entreprises technologiques à protéger leurs utilisateurs, et qu’un organisme de réglementation soit mis en place pour faire appliquer la loi.

Le gouvernement a déclaré que la législation serait introduite “dès que possible”.

Mais le mois dernier, un comité de la Chambre des Lords qui s’est penché sur la même question a signalé que la loi pourrait ne pas entrer en vigueur avant trois ou quatre ans.

Dans son propre rapport, le comité du DCMS s’est dit préoccupé par le fait que la législation retardée ne résoudrait pas les dommages causés par la désinformation et la désinformation répandues sur les faux traitements contre les coronavirus, la technologie 5G et d’autres théories du complot liées à la pandémie.

Il a également affirmé que les modèles commerciaux axés sur la publicité des entreprises de médias sociaux avaient encouragé la diffusion de la désinformation et permis aux «mauvais acteurs» de gagner de l’argent à partir de contenus émotionnels, quelle que soit la vérité.

Copyright de l’image
Parlement britannique

Légende

Julian Knight a pris en charge le comité restreint du DCMS plus tôt cette année

“En conséquence, le public dépend de la bonne volonté des entreprises technologiques ou de la” mauvaise presse “qu’elles attirent pour les contraindre à agir”, indique le rapport.

S’adressant à la BBC, M. Knight a déclaré que les principaux acteurs – Facebook, Twitter et le propriétaire de Google YouTube – devaient maintenant être traînés “à coups de pied et à crier” pour faire plus pour réguler leurs plates-formes.

“Nous avons besoin que les entreprises de médias sociaux soient réellement en avance sur le jeu et nous avons besoin que le gouvernement soit également très clair avec elles”, a-t-il ajouté.

“Ce n’est pas une question de liberté d’expression. C’est une question de santé publique.”

Facebook a répondu: «Nous n’autorisons pas la désinformation nuisible et avons supprimé des centaines de milliers de publications, y compris de faux remèdes, affirmant que le coronavirus n’existe pas, qu’il est causé par la 5G ou que la distanciation sociale est inefficace.

“En plus de ce que nous supprimons, nous avons placé des étiquettes d’avertissement sur environ 90 millions de contenus liés à Covid-19 sur Facebook en mars et avril.”

YouTube a déclaré: “Nous avons des politiques claires en matière de promotion de la désinformation sur YouTube et avons mis à jour nos politiques pour nous assurer que le contenu de la plate-forme est conforme au NHS et à l’OMS. [World Health Organization] orientation.

“Lorsque des vidéos nous sont signalées, nous travaillons rapidement pour les examiner conformément à ces règles et prenons les mesures appropriées.”

Twitter a déclaré à la BBC que sa priorité absolue était de “protéger la santé de la conversation publique – cela signifie d’abord faire apparaître des informations de santé publique faisant autorité et le contenu et le contexte de la plus haute qualité et les plus pertinents”.

Conspirations anti-vaccinales

Le rapport énumère également certains des principaux groupes responsables de la diffusion de la désinformation en ligne.

Ils comprennent:

  • acteurs étatiques, dont la Russie, la Chine et l’Iran
  • le groupe État islamique
  • groupes d’extrême droite aux États-Unis et au Royaume-Uni
  • escrocs

Pour diverses raisons, des individus ont également contribué en diffusant de fausses informations et des idées sur de faux remèdes à d’autres en ligne pendant la pandémie, ont déclaré les députés.

M. Knight s’est également dit préoccupé par le fait que les théories du complot anti-vaccin pourraient faire échouer les efforts visant à lutter contre Covid-19 une fois qu’un traitement préventif approprié serait disponible.

Les entreprises de médias sociaux, a-t-il ajouté, “doivent s’assurer qu’elles ne sont pas simplement neutres dans ce domaine – elles doivent absolument prendre une part active pour garantir la sécurité de notre société, de nos voisins, de nos amis et de nos proches”.

Le rapport a également critiqué le gouvernement pour avoir créé sa propre unité de lutte contre la désinformation en mars.

Il a suggéré que c’était tard, car de fausses nouvelles sur le coronavirus avaient commencé à se propager en ligne en janvier, ajoutant que dans tous les cas, l’unité avait largement dupliqué le travail d’autres organisations.

Leave a Reply