L’industrie du jeu a une réputation justement méritée en ce qui concerne le comportement laid des utilisateurs – des groupes haineux au toilettage et aux produits illégaux. Avec le métaverse et l’afflux de contenu généré par les utilisateurs, il existe une toute nouvelle avenue pour le contenu préjudiciable et les personnes qui ont l’intention de causer du tort.

Mais cette nouvelle étape du jeu et de la technologie offre l’opportunité de faire les choses différemment et de les faire mieux, en particulier en ce qui concerne la confiance et la sécurité des mineurs. Lors du GamesBeat Summit Next, les leaders de la confiance, de la sécurité et de l’espace communautaire se sont réunis pour discuter de la responsabilité d’un métaverse plus sûr, parmi les créateurs et les plates-formes, les développeurs et les tuteurs dans un panel parrainé par la société de solutions de confiance et de sécurité ActiveFence.

La sécurité doit être un tabouret à trois pieds, a déclaré Tami Bhaumik, vice-présidente de la civilité et des partenariats chez Roblox. Il doit y avoir une responsabilité du point de vue de la plate-forme comme Roblox, qui fournit des outils de sécurité. Et parce que la démocratisation et l’UGC sont l’avenir, ils ont également tout intérêt à donner aux créateurs et aux développeurs les moyens de créer la nuance culturelle pour les expériences qu’ils développent. Le troisième pied de ce tabouret est la réglementation gouvernementale.

« Mais je crois aussi que la réglementation doit être fondée sur des preuves », a-t-elle déclaré. « Cela doit être basé sur des faits et une collaboration avec l’industrie, par opposition à de nombreux titres à sensation que vous lisez là-bas qui font que beaucoup de ces régulateurs et législateurs rédigent une législation qui est loin, et qui est très franchement préjudiciable à tout le monde. »

Ces gros titres et cette législature ont tendance à provenir de ces cas où quelque chose passe entre les mailles du filet malgré la modération, ce qui arrive assez souvent pour que certains tuteurs soient frustrés et ne se sentent pas écoutés. C’est un acte d’équilibre dans les tranchées, a déclaré Chris Norris, directeur principal du jeu positif chez Electronic Arts.

Publicité

«Nous voulons évidemment clarifier la politique. Nous voulons clarifier les codes de conduite », a-t-il déclaré. « En même temps, nous voulons également donner à la communauté les moyens de s’autoréguler. Il doit également y avoir de fortes couches de modération. En même temps, je veux m’assurer que nous ne sommes pas trop normatifs sur ce qui se passe dans l’espace, en particulier dans un monde dans lequel nous voulons que les gens puissent s’exprimer.

La modération d’énormes communautés doit comprendre que la taille de l’audience signifie qu’il y a sans aucun doute de mauvais acteurs parmi le groupe, a déclaré Tomer Poran, vice-président de la stratégie de solution chez ActiveFence.

« Les plateformes ne peuvent pas arrêter tous les méchants, tous les mauvais acteurs, toutes les mauvaises activités », a-t-il déclaré. « C’est cette situation où un meilleur effort est ce qui est exigé. Le devoir de vigilance. Les plateformes mettent en place les bons programmes, les bonnes équipes, les bonnes fonctions au sein de leur organisation, les bonnes capacités, qu’elles soient externalisées ou internes. S’ils les ont en place, c’est vraiment ce que nous, en tant que public, la couche créateur, la couche développeur et créateur, pouvons attendre de la plate-forme.

L’un des problèmes est que trop de parents et d’enseignants ne savent même pas qu’il existe des restrictions de compte et des contrôles parentaux, et sur toutes les plateformes, le pourcentage d’adoption du contrôle parental est très faible, a déclaré Bhaumik.

« C’est un problème, car les entreprises technologiques en elles-mêmes ont de grandes intentions », a-t-elle déclaré. «Ils ont certains des ingénieurs les plus intelligents qui travaillent sur l’innovation et la technologie en matière de sécurité. Mais s’ils ne sont pas utilisés et qu’il n’y a pas un niveau d’éducation de base, il y aura toujours un problème.

Mais quelle que soit la communauté, il est de la responsabilité de la plateforme de la gérer conformément aux préférences de ce public. D’une manière générale, s’attendre à un comportement classé G dans un jeu classé M ne vole pas très loin, a déclaré Norris.

« Et revenons aux développeurs, comment concevez-vous de manière réfléchie pour la communauté que vous voulez, et comment cela se manifeste-t-il, que ce soit dans la politique et le code de conduite, que ce soit dans les fonctionnalités du jeu ou les fonctionnalités de la plate-forme? » il a dit. « En pensant à ce que cela permet aux gens de faire, quelles sont les possibilités et que pensons-nous de la façon dont cela pourrait potentiellement avoir un impact sur les garde-fous que vous essayez de mettre en place en fonction de la politique et du code de conduite. »

En fin de compte, la sécurité ne devrait pas être un avantage concurrentiel dans l’industrie ou sur les plates-formes, a ajouté Norris – ces choses devraient être des enjeux de table.

« Généralement dans l’industrie du jeu vidéo, nous avons été une industrie du ‘ne pas faire’. Voici les cinq pages de choses que nous ne voulons pas que vous fassiez », a-t-il déclaré. « Nous n’avons pas articulé, que voulons-nous vouloir que vous fassiez? Quelle sorte de communauté voulons-nous ? Comment pensons-nous à toutes les façons dont ce média peut être social, connectif et émotif pour beaucoup de gens ? »

Rate this post
Publicité
Article précédentJ’ai cassé l’histoire de Jeffrey Dahmer en 1991. Voici ce que la série Netflix a mal tourné
Article suivantHong Kong va légaliser le commerce de détail de crypto-monnaie
Avatar De Violette Laurent
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici