Google avait reçu 35 191 plaintes d’utilisateurs et supprimé 93 550 éléments de contenu en août, tandis que 6 51 933 éléments de contenu ont été supprimés à la suite d’une détection automatisée.
La société basée aux États-Unis a fait ces divulgations dans le cadre du respect des règles informatiques indiennes entrées en vigueur en mai.
Google, dans son dernier rapport, a déclaré avoir reçu 29 842 plaintes en septembre d’utilisateurs individuels situés en Inde via des mécanismes désignés, et le nombre d’actions de suppression à la suite de plaintes d’utilisateurs s’élevait à 76 967.
Ces réclamations concernent des contenus tiers qui sont susceptibles d’enfreindre les lois locales ou les droits de la personne sur les sites importants de Google. Média social plates-formes d’intermédiaires (SSMI), selon le rapport.
« Certaines demandes peuvent alléguer une violation des droits de propriété intellectuelle, tandis que d’autres prétendent une violation des lois locales interdisant des types de contenu pour des motifs tels que la diffamation. Lorsque nous recevons des plaintes concernant du contenu sur nos plateformes, nous les évaluons attentivement », a-t-il ajouté.
Découvrez les histoires qui vous intéressent
La suppression de contenu a été effectuée dans plusieurs catégories, notamment le droit d’auteur (76 444), la marque de commerce (493), le contenu graphique à caractère sexuel (11), l’ordonnance du tribunal (10), la contrefaçon (5) et l’usurpation d’identité et la diffamation (2 chacune).
Google a déclaré qu’une seule plainte peut spécifier plusieurs éléments potentiellement liés au même contenu ou à des éléments de contenu différents, et chaque URL unique dans une plainte spécifique est considérée comme un « élément » individuel qui est supprimé.
Google a déclaré qu’en plus des rapports des utilisateurs, la société investit massivement dans la lutte contre les contenus préjudiciables en ligne et utilise la technologie pour les détecter et les supprimer de ses plateformes.
« Cela inclut l’utilisation de processus de détection automatisés pour certains de nos produits afin d’empêcher la diffusion de contenus préjudiciables tels que des contenus pédopornographiques et des contenus extrémistes violents.
« Nous équilibrons la confidentialité et la protection des utilisateurs pour : supprimer rapidement le contenu qui enfreint nos directives communautaires et nos politiques de contenu ; restreindre le contenu (par exemple, un contenu avec limite d’âge qui peut ne pas convenir à tous les publics) ; ou laisser le contenu en ligne lorsqu’il ne l’est pas. violer nos directives ou politiques », a-t-il ajouté.
Google a déclaré que la détection automatisée lui permet d’agir plus rapidement et plus précisément pour appliquer ses directives et politiques. Ces actions de suppression peuvent entraîner la suppression du contenu ou la résiliation de l’accès d’un mauvais acteur au service Google, a-t-il ajouté.
En vertu des nouvelles règles informatiques, les grandes plateformes numériques, avec plus de 5 millions d’utilisateurs, devront publier chaque mois des rapports de conformité périodiques, mentionnant les détails des plaintes reçues et les mesures prises à leur sujet.
Le rapport doit également inclure le nombre de liens de communication spécifiques ou de parties d’informations que l’intermédiaire a supprimés ou auxquels l’accès a été désactivé dans le cadre de toute surveillance proactive effectuée à l’aide d’outils automatisés.
Facebook et WhatsApp ont également publié leurs rapports de conformité pour septembre.
Facebook a « agi » de manière proactive sur plus de 26,9 millions d’éléments de contenu dans 10 catégories en Inde, tandis que sa plateforme de partage de photos, Instagram, a pris des mesures proactives contre plus de 3,2 millions d’éléments dans neuf catégories au cours de la même période.
Le contenu « traité » fait référence au nombre d’éléments de contenu (tels que des messages, des photos, des vidéos ou des commentaires) pour lesquels des mesures ont été prises pour violation des normes. Prendre des mesures peut inclure la suppression d’un élément de contenu de Facebook ou d’Instagram ou la couverture de photos ou de vidéos susceptibles de déranger certains publics avec un avertissement.
En outre, Facebook avait reçu 708 signalements d’utilisateurs via son mécanisme de réclamation indien entre le 1er et le 30 septembre. Instagram avait reçu 418 rapports via le mécanisme indien de règlement des griefs au cours de la même période.
Dans son rapport, WhatsApp a déclaré avoir interdit plus de 2,2 millions de comptes en Inde, tandis que 560 rapports de griefs ont été reçus par la plateforme de messagerie au mois de septembre.