Présenté par Module


Cet article fait partie du numéro spécial de GamesBeat, Communautés de jeu : Établir des liens et lutter contre la toxicité.

Au cours d’une une douzaine de réglementations nouvelles et en attente sur la confiance et la sécurité sur Internet devraient avoir un impact sérieux sur les développeurs de jeux dans un avenir proche, des États-Unis et de l’UE à l’Australie, l’Irlande, le Royaume-Uni et Singapour. Les réglementations ciblent la montée des discours de haine, du harcèlement et de la désinformation provoqués par des événements mondiaux majeurs, notamment Désinformation liée au COVID, influence électorale potentielle et le Montée de l’extrémisme suprémaciste blanc. En plus de cela, les lois sur la protection de la vie privée sont en cours de révision, telles que la loi californienne sur la conception adaptée à l’âge, inspirée du code britannique pour les enfants.

Et alors que la DSA et d’autres réglementations commencent à entrer en vigueur en 2024, les experts s’attendent à ce que l’application devienne plus courante. Malheureusement, « Personne ne l’a signalé ! Nous ne savions pas qu’il y avait du contenu illégal ! ne le coupera plus. Aujourd’hui, les régulateurs et les consommateurs recherchent des preuves que les studios prennent le problème au sérieux, en mettant l’accent sur la réduction des dommages. En d’autres termes, les studios de jeux doivent désormais minimiser de manière proactive tout dommage sur leurs plates-formes, car ils pourraient être tenus responsables de tels dommages même s’ils n’ont jamais été signalés par les utilisateurs.

Les principales exigences de conformité

La conformité comporte huit éléments principaux, ce qui peut sembler intimidant au départ. Cela comprend la rédaction d’un code de conduite clair, la mise à jour des conditions de service et la production de rapports de transparence réguliers, avec l’aide d’équipes internes qui peuvent travailler avec les régulateurs si nécessaire.

Publicité

Sur la plate-forme, les développeurs doivent trouver des moyens de minimiser les contenus préjudiciables à grande échelle, en particulier le terrorisme, le CSAM et le toilettage, ce qui signifie créer de nouveaux outils de modération et de surveillance. Un portail de signalement des utilisateurs et un portail de recours, auxquels le personnel doit répondre en temps opportun, sont cruciaux. Enfin, les développeurs doivent effectuer des évaluations régulières des risques et mettre en œuvre des modifications de l’interface utilisateur pour augmenter la confidentialité dès la conception, ainsi que configurer la confidentialité par défaut pour tous les enfants.

Avant toute chose, cependant, en raison de la complexité impliquée, il est essentiel de consulter des experts juridiques et réglementaires pour s’assurer que les étapes appropriées sont en place pour se conformer aux réglementations mondiales.

Voici un aperçu de chacune de ces étapes et de la façon dont les développeurs peuvent se préparer.

1. Rédiger un code de conduite clair

Bien qu’un code de conduite approfondi soit désormais une exigence réglementaire, c’est aussi du bon sens. La grande majorité des mauvais comportements des joueurs sont dus à des directives peu claires sur ce qui est autorisé, et une grande partie de la confiance perdue entre les studios et leurs utilisateurs provient de rapports, d’appels ou de processus d’action « boîte noire ».

Un code de conduite devrait expliquer précisément quels types de comportements sont préjudiciables et pourraient entraîner une action. Il devrait également identifier clairement les types d’actions qui peuvent être prises, et quand. Enfin, le code de conduite devrait expliquer les recours dont disposent les joueurs s’ils sont confrontés à un contenu préjudiciable, s’ils ont le sentiment d’avoir été malmenés ou s’ils souhaitent limiter l’utilisation de leurs données personnelles.

Si vous cherchez un point de départ, consultez d’autres codes de studio ou consultez un expert en réglementation.

2. Produire des rapports de transparence réguliers

Les rapports de transparence sont destinés à combler un vide là où les régulateurs et les consommateurs estiment que les plates-formes n’ont pas été suffisamment ouvertes en ce qui concerne la gravité et la prévalence des contenus préjudiciables sur leurs plates-formes – et les mesures que la plate-forme prend pour résoudre ces problèmes. Le moyen le plus efficace d’intégrer des rapports dans votre stratégie consiste à adopter une solution technologique, alimentée par l’apprentissage automatique.

Aujourd’hui, des plateformes de modération innovantes comme Modulate, alimentées par l’IA ToxMod peut automatiquement suivre les taux d’action, la fréquence à laquelle les appels entraînent des revirements et l’exactitude des rapports des joueurs. Il peut également fournir de manière proactive un aperçu du nombre total de comportements nuisibles sur la plate-forme, et même du nombre d’individus exposés à du contenu illégal – deux éléments cruciaux d’un rapport de transparence efficace – et la plupart des studios manquent actuellement d’outils pour mesurer.

3. Minimiser le contenu préjudiciable

Aujourd’hui, la plupart des plates-formes s’appuient principalement sur les rapports des utilisateurs pour identifier les contenus préjudiciables, y compris le terrorisme, le matériel d’abus sexuel d’enfants et le contenu de toilettage, mais cela n’a jamais été une protection suffisante. Encore une fois, un outil de modération basé sur l’IA peut identifier, consigner et faire remonter les problèmes, en automatisant l’élimination des contenus nuisibles.

La manière dont les studios gèrent des problèmes tels que le harcèlement et la cyberintimidation sera également examinée. Alors que les régulateurs et les organismes d’application de la loi s’orientent vers une «norme de préjudice», des résultats suffisamment mauvais pour les utilisateurs peuvent créer une responsabilité pour un studio, même s’ils n’ont jamais reçu de rapport d’utilisateur.

Un outil d’IA comme ToxMod peut identifier de manière proactive le chat vocal toxique de l’ensemble de votre écosystème, le catégoriser et vous remettre une file d’attente prioritaire des pires choses que vos utilisateurs font. Et il est assez intelligent pour filtrer les propos amusants, la récupération des insultes ou les jeux de rôle méchants, par opposition au véritable harcèlement et à l’intimidation.

4. Portails de rapports d’utilisateurs, portails d’appels et réponses rapides

La plupart des plateformes proposent déjà ces plateformes, mais certaines de ces nouvelles réglementations exigent également que les plateformes répondent à chaque rapport, en temps opportun, et incluent le contexte de la décision prise et pourquoi. Mais l’évaluation des rapports des joueurs peut être assez coûteuse, d’autant plus que de nombreux utilisateurs soumettent de faux rapports par malveillance ou par malice.

Bien que les modérateurs humains ne puissent jamais être remplacés, les solutions de modération peuvent aider à les rendre plus efficaces en automatisant une partie du travail chargé, comme évaluer quand une action sur un ticket doit être prise et fermer les tickets et émettre des rapports lorsqu’il n’y a aucune preuve d’une violation. Les violations sont transmises à l’équipe de modération du studio, avec suffisamment de preuves disponibles pour passer un appel précis et être en mesure d’expliquer, lorsqu’ils agissent sur un utilisateur, quelle partie du code de conduite a été violée et fournir des justifications claires pour toutes les sanctions, ce qui non seulement garantit le respect mais aussi, selon EApeut massivement réduire les récidives des joueurs.

5. Évaluations régulières des risques

Encore une fois, les plates-formes de modération automatisées sont votre meilleur pari ici pour minimiser les risques et offrir des protections complètes aux joueurs tout en respectant les réglementations en matière de confidentialité. Il est essentiel d’utiliser une plate-forme qui a documenté une grande précision sur les principaux types de dommages et qui a été testée au combat par les meilleurs jeux.

Une solution peut également fournir des informations sur les comportements des joueurs, pour une vue sur les plus grands risques pour la sécurité et l’expérience de leurs joueurs, ainsi que proposer des améliorations de conception et des stratégies de modération pour attaquer le problème à sa source.

6. Configuration de la confidentialité par défaut pour tous les enfants

La loi californienne sur la conception adaptée à l’âge comprend une exigence puissante selon laquelle les plates-formes garantissent que les enfants commencent avec les protections de confidentialité les plus strictes possibles. Bien qu’il ne s’agisse finalement que d’une mise à jour de l’interface utilisateur pour les plates-formes, cela soulève une question importante : comment savez-vous quels utilisateurs sont des enfants ?

Il est essentiel d’intégrer très tôt dans le processus d’intégration une garantie d’âge telle qu’une pièce d’identité ou des chèques de paiement, mais ils ne sont pas infaillibles, comme le récent Epic Games / Boîtier FTC montre. Si un développeur sait qu’il y a des enfants sur votre plateforme, il est encore plus important de faire un effort supplémentaire pour les identifier et les protéger. Des outils tels que l’analyse vocale peuvent identifier les utilisateurs mineurs – Le propre système de Modulate a atteint une précision et un comptage de plus de 98 %.

Garder une longueur d’avance

Des étapes proactives comme celles-ci sont essentielles pour assurer la conformité, mais un partenariat avec un expert en sécurité et en confidentialité peut aider à assumer une partie du fardeau. Ils peuvent apporter un soulagement significatif aux équipes internes, allant des solutions technologiques qui aident à minimiser le contenu préjudiciable à grande échelle, à la prise en charge des évaluations des risques, des rapports de transparence et plus encore. En fin de compte, non seulement vous respectez les normes réglementaires, mais vous créez également une expérience en ligne plus sûre et plus positive pour les utilisateurs.

Écrit en collaboration avec Tess Lynch, associée à la confidentialité chez Premack Rogers.

Creusez plus profondément : Allez ici pour plus d’informations sur la façon dont les studios de jeux peuvent garder un œil sur l’évolution du paysage réglementaire, prendre des mesures proactives et intégrer une technologie sophistiquée pour faire évoluer les efforts de confidentialité et de sécurité.


Les articles sponsorisés sont du contenu produit par une entreprise qui soit paie pour la publication, soit entretient une relation commerciale avec VentureBeat, et ils sont toujours clairement indiqués. Pour plus d’informations, contactez sales@fr.techtribune.net.com.

4.9/5 - (10 votes)
Publicité
Article précédentOffres hebdomadaires : les meilleures offres de smartphones du Royaume-Uni, d’Allemagne, des États-Unis et d’Inde
Article suivantNike, Fortnite et la montée de SOL, MANA et MIYAGI
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici