Twitter teste un nouveau « mode de sécurité » qui bloque automatiquement les personnes qui envoient des messages non sollicités jugés insultants ou haineux.

Le géant des médias sociaux, qui a subi des pressions pour son incapacité à lutter contre un torrent de toxicité en ligne, a déclaré que le nouveau cadre « réduirait le fardeau des personnes confrontées à des interactions indésirables ».

Si le mode sécurisé est activé sur un compte, il bloquera automatiquement les étrangers qui se mêlent aux conversations en utilisant un langage détecté comme étant « potentiellement dangereux ».

Les blocages automatiques sont temporaires, d’une durée de sept jours.

La fonctionnalité sera initialement testée par un petit nombre d’utilisateurs nommés, en mettant l’accent sur « les personnes issues de communautés marginalisées et les femmes journalistes » – deux groupes qui subissent des abus disproportionnés sur la plate-forme.

Publicité

Twitter a expliqué dans un article de blog: « Le mode sécurisé est une fonctionnalité qui bloque temporairement les comptes pendant sept jours pour avoir utilisé un langage potentiellement dangereux – comme des insultes ou des remarques haineuses – ou pour envoyer des réponses ou des mentions répétitives et non sollicitées.

« Lorsque la fonctionnalité est activée dans vos paramètres, nos systèmes évalueront la probabilité d’un engagement négatif en tenant compte à la fois du contenu du tweet et de la relation entre l’auteur du tweet et le répondeur. Notre technologie prend en compte les relations existantes, de sorte que les comptes que vous suivez ou avec lesquels vous interagissez fréquemment ne seront pas automatiquement bloqués.

« Les auteurs de Tweets jugés nuisibles ou non invités par notre technologie seront automatiquement bloqués, ce qui signifie qu’ils ne pourront temporairement pas suivre votre compte, voir vos Tweets ou vous envoyer des messages privés. »

Au-delà d’être empêchés de contacter les personnes avec le mode de sécurité activé, les utilisateurs qui envoient des messages jugés potentiellement dangereux ne feraient face à aucune autre action automatique.

Le chef de projet principal de Twitter, Jarrod Doherty, a déclaré: «Nous voulons que vous profitiez de conversations saines, donc ce test est un moyen de limiter les interactions écrasantes et indésirables qui peuvent interrompre ces conversations.

« Notre objectif est de mieux protéger l’individu qui reçoit les tweets en réduisant la prévalence et la visibilité des remarques préjudiciables.

« Tout au long du processus de développement du produit, nous avons organisé plusieurs séances d’écoute et de retour d’information pour des partenaires de confiance possédant une expertise en matière de sécurité en ligne, de santé mentale et de droits de l’homme.

Le mois dernier, Twitter a également commencé à tester un bouton qui permet aux utilisateurs de signaler pour la première fois des informations erronées sur la plateforme.

Rate this post
Publicité
Article précédentSmartphones dont les prix ont augmenté en Inde : Poco M3 Pro, Micromax In 2B, Realme 8 5G, Realme C21, etc.
Article suivantPsychonauts 2 Hollis’s Hot Streak Collectibles Guide
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici