Google a reçu 31 497 plaintes d’utilisateurs et supprimé 94 173 éléments de contenu sur la base de ces plaintes en décembre, a déclaré le géant de la technologie dans son rapport mensuel sur la transparence.
En plus des rapports des utilisateurs, Google a également supprimé 4 05 911 éléments de contenu en décembre à la suite d’une détection automatisée.
Google avait reçu 26 087 plaintes d’utilisateurs et supprimé 61 114 éléments de contenu sur la base de ces plaintes en novembre, tandis que 3 75 468 éléments de contenu ont été supprimés à la suite d’une détection automatisée.
La société basée aux États-Unis a fait ces divulgations dans le cadre du respect des règles informatiques indiennes entrées en vigueur en mai de l’année dernière.
Google, dans son dernier rapport, a déclaré avoir reçu 31 497 plaintes au cours du mois de décembre (1er-31 décembre 2021) d’utilisateurs individuels situés en Inde via des mécanismes désignés, et le nombre d’actions de suppression à la suite de plaintes d’utilisateurs s’élevait à 94 173.
Ces plaintes concernent le contenu de tiers qui est censé violer les lois locales ou les droits de la personne sur les principales plateformes d’intermédiaires de médias sociaux (SSMI) de Google, selon le rapport.
« Certaines demandes peuvent alléguer une violation des droits de propriété intellectuelle, tandis que d’autres prétendent une violation des lois locales interdisant des types de contenu pour des motifs tels que la diffamation. Lorsque nous recevons des plaintes concernant du contenu sur nos plateformes, nous les évaluons attentivement », a-t-il ajouté.
La suppression de contenu a été effectuée dans plusieurs catégories, y compris le droit d’auteur (93 693), la marque (438), l’ordonnance du tribunal (37), le contenu sexuel graphique (3), le contournement (1) et la contrefaçon (1).
Google a expliqué qu’une seule plainte peut spécifier plusieurs éléments potentiellement liés au même contenu ou à des éléments de contenu différents, et chaque URL unique dans une plainte spécifique est considérée comme un « élément » individuel qui est supprimé.
Pour les plaintes des utilisateurs, le nombre « d’actions de suppression » représente le nombre d’éléments pour lesquels un élément de contenu a été supprimé ou restreint au cours de la période de rapport d’un mois à la suite d’une plainte spécifique, tandis que pour la détection automatisée, le nombre d' »actions de suppression » représente le nombre de cas où Google a supprimé du contenu ou empêché l’acteur malveillant d’accéder au service Google à la suite de processus de détection automatisés.
Google a déclaré qu’en plus des rapports des utilisateurs, la société investit massivement dans la lutte contre les contenus préjudiciables en ligne et utilise la technologie pour les détecter et les supprimer de ses plateformes.
« Cela inclut l’utilisation de processus de détection automatisés pour certains de nos produits afin d’empêcher la diffusion de contenus préjudiciables tels que des contenus pédopornographiques et des contenus extrémistes violents.
« Nous équilibrons la confidentialité et la protection des utilisateurs pour : supprimer rapidement le contenu qui enfreint nos directives communautaires et nos politiques de contenu ; restreindre le contenu (par exemple, un contenu avec limite d’âge qui peut ne pas convenir à tous les publics) ; ou laisser le contenu en ligne lorsqu’il n’enfreint pas nos lignes directrices ou nos politiques », a-t-il ajouté.
Google a déclaré que la détection automatisée lui permet d’agir plus rapidement et plus précisément pour appliquer ses directives et politiques.
Ces actions de suppression peuvent entraîner la suppression du contenu ou la résiliation de l’accès d’un mauvais acteur au service Google, a-t-il ajouté.
En vertu des règles informatiques, les grandes plateformes numériques – avec plus de 5 millions d’utilisateurs – doivent publier des rapports de conformité périodiques chaque mois, mentionnant les détails des plaintes reçues et les mesures prises à leur sujet.
Le rapport doit également inclure le nombre de liens de communication spécifiques ou de parties d’informations que l’intermédiaire a supprimés ou auxquels l’accès a été désactivé dans le cadre de toute surveillance proactive effectuée à l’aide d’outils automatisés.
(Seuls le titre et l’image de ce rapport peuvent avoir été retravaillés par le personnel de Business Standard ; le reste du contenu est généré automatiquement à partir d’un flux syndiqué.)