Le gouvernement britannique a indiqué qu’il pourrait chercher à renforcer ses pouvoirs pour réglementer les plateformes technologiques à la suite de jours de troubles violents en Angleterre et en Irlande du Nord, alimentés par la propagation de la désinformation en ligne.

Vendredi, le Premier ministre Keir Starmer a confirmé qu’il y aurait une révision de la loi sur la Sécurité en ligne (OSA).

La législation, qui a été adoptée par le Parlement en septembre 2023 après des années de querelles politiques, impose aux plateformes qui diffusent des communications d’utilisateur à utilisateur (telles que les plateformes de médias sociaux, les applications de messagerie, etc.) de supprimer les contenus illégaux et de protéger leurs utilisateurs contre d’autres préjudices tels que les discours de haine – avec des sanctions pouvant aller jusqu’à 10 % du chiffre d’affaires annuel mondial en cas de non-conformité.

« En ce qui concerne les médias en ligne et les médias sociaux, la première chose que je dirais, c’est qu’il ne s’agit pas d’une zone de non-droit, et je pense que c’est clair d’après les poursuites et les condamnations », a déclaré Starmer, soulignant que ceux qui attisent la haine en ligne sont déjà confrontés à des conséquences, car le Crown Prosecution Service rapporte que les premières peines associées aux messages de discours de haine liés aux troubles violents sont Transmis.

Mais Starmer a ajouté : « Je suis d’accord que nous allons devoir examiner plus largement les médias sociaux après ce trouble, mais l’accent doit être mis pour le moment sur la gestion du trouble et s’assurer que nos communautés sont sûres et sécurisées. »

Publicité

Le Gardien a rapporté que la confirmation de l’examen faisait suite aux critiques formulées à l’égard de l’OSA par le maire de London, Sadiq Khan, qui a qualifié la loi de «inadapté à l’usage prévu.”

De violents troubles ont ravagé des villes d’Angleterre et d’Irlande du Nord après qu’une attaque au couteau a tué trois jeunes filles à Southport le 30 juillet.

De fausses informations sur l’auteur de l’attaque l’ont identifié à tort comme un demandeur d’asile musulman arrivé dans le pays à bord d’un petit bateau. Ce mensonge s’est rapidement répandu en ligne, notamment par le biais de messages sur les réseaux sociaux amplifiés par des militants d’extrême droite. La désinformation sur l’identité du tueur a été largement liée aux troubles civils qui ont secoué le pays ces derniers jours.

Vendredi également, une femme britannique a été auraient été arrêtés en vertu de la loi de 1986 sur l’ordre public, soupçonné d’attiser la haine raciale en publiant de faux messages sur les réseaux sociaux sur l’identité de l’agresseur.

Pour l’instant, ces arrestations restent la priorité déclarée du gouvernement dans sa réponse aux troubles civils. Mais il est peu probable que la question plus large de savoir ce qu’il faut faire des plateformes technologiques et autres outils numériques utilisés pour diffuser la désinformation à grande échelle disparaisse.

Comme nous l’avons signalé plus tôt, l’OSA n’est pas encore tout à fait opérationnelle, car l’organisme de réglementation est en train de mener des consultations sur les lignes directrices. Certains pourraient donc dire qu’un examen de la législation est prématuré avant au moins le milieu de l’année prochaine – pour donner à la loi une chance de fonctionner.

Dans le même temps, le projet de loi a fait l’objet de critiques en raison de sa mauvaise rédaction et de sa mauvaise qualité. Ne pas s’attaquer aux modèles économiques sous-jacents des plateformes qui profitent de l’engagement par l’indignation.

Le gouvernement conservateur précédent a également apporté des modifications majeures à l’automne 2022 qui ont spécifiquement supprimé les clauses axées sur la lutte contre les discours « légaux mais nuisibles » (c’est-à-dire le domaine où la désinformation se situe généralement).

À l’époque, la ministre du Numérique, Michelle Donelan, avait déclaré que le gouvernement répondait aux préoccupations concernant l’impact du projet de loi sur la liberté d’expression. Cependant, un autre ancien ministre, Damian Collins, a contesté le cadre du gouvernement, suggérant que les dispositions supprimées n’avaient pour but que d’appliquer des mesures de transparence pour s’assurer que les plateformes appliquent leurs propres conditions générales, par exemple dans les situations où le contenu risque d’inciter à la violence ou à la haine.

Les plateformes de médias sociaux grand public, y compris Facebook et X (anciennement Twitter), ont des conditions générales qui interdisent généralement ce type de contenu, mais il n’est pas toujours évident de voir avec quelle rigueur elles appliquent ces normes. (Juste un exemple immédiat : le 6 août, un homme du Royaume-Uni a été arrêté pour avoir attisé la haine raciale en publiant des messages sur Facebook concernant l’attaque d’un hôtel où étaient logés des demandeurs d’asile.)

Les plateformes ont longtemps appliqué un manuel de déni plausible – en disant qu’elles retiraient le contenu une fois qu’il leur était signalé. Mais une loi qui réglemente les ressources et les processus qu’ils sont censés avoir en place pourrait les obliger à être plus proactifs pour arrêter la libre propagation de la désinformation toxique.

Une affaire test est déjà en cours contre X dans l’Union européenne, où enfoLes récalcitrants de la législation sur les services numériques de l’UE enquêtent depuis décembre sur l’approche de la plateforme en matière de modération de la désinformation.

Jeudi, l’UE a déclaré Reuters que la gestion par X du contenu préjudiciable lié aux troubles civiques au Royaume-Uni pourrait être prise en compte dans sa propre enquête sur la plateforme, car « ce qui se passe au Royaume-Uni est visible ici ». « S’il y a des exemples de discours de haine ou d’incitations à la violence, ils pourraient être pris en compte dans le cadre de notre procédure contre X », a ajouté le porte-parole de la Commission.

Une fois que l’OSA sera pleinement opérationnelle au Royaume-Uni d’ici le printemps prochain, la loi pourrait exercer une pression similaire sur l’approche des grandes plateformes en matière de désinformation, selon le ministère de la Science, de l’Innovation et de la Technologie. Un porte-parole du ministère nous a dit qu’en vertu de la loi actuelle, les plus grandes plateformes ayant le plus d’exigences en vertu de la loi devront appliquer de manière cohérente leurs propres conditions d’utilisation, y compris lorsque celles-ci interdisent la diffusion de fausses informations.

[ad_2]

5/5 - (134 votes)
Publicité
Article précédentLe développeur de « God of War » dévoile sa première nouvelle IP depuis plus de 20 ans : The Indiependent
Article suivantComment regarder Disney D23 Live dans Fortnite et obtenir un objet Wolverine

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici