Lors du GamesBeat Summit 2023, les problèmes de confiance et de sécurité, en particulier pour les diverses populations de joueurs, étaient au premier plan, et le clou du panel était « Comment assurer la confiance et la sécurité juste avant d’y être obligé ».

« L’industrie du jeu est arrivée à maturité », a déclaré le modérateur Hank Howie, évangéliste de l’industrie du jeu chez Modulate. «Nous ne sommes plus cette forme auxiliaire de divertissement – ​​nous avons le gorille de divertissement de 800 livres. Il est temps d’assumer pleinement le leadership dans le domaine de la confiance et de la sécurité, au niveau du PDG de chaque entreprise. Faire quoi que ce soit de moins risque de mettre votre entreprise en péril financier, en plus d’être dans une situation de faillite morale.

Il a été rejoint par des dirigeants de Take This, une organisation à but non lucratif de défense de la santé mentale, Windwalk, qui se concentre sur la création de communautés en ligne et le cabinet d’avocats « web3 », Gamma Law, pour discuter de l’état de la confiance et de la sécurité, des changements réglementaires qui pèsent sur les sociétés de jeux, et ce que les développeurs peuvent faire maintenant pour mettre en place des garde-fous pour leurs communautés.

Voici un aperçu des faits saillants de la discussion – et ne manquez pas le panel complet, disponible gratuitement sur demande ici.

Une faction petite mais violente

« Il est franchement, vraiment très difficile de modérer une plateforme tierce, en particulier une plateforme pseudo-anonyme », a déclaré Richard Warren, associé chez Windwalk. « Ce qui fonctionne vraiment bien, c’est l’auto-modération, mais aussi le cadre culturel. »

Publicité

Être intentionnel dans vos programmes de modération et établir une norme de comportement, en particulier parmi les fans inconditionnels, est ce qui donne le ton à toute communauté soudée.

Mais le défi, a déclaré Eve Crevoshay, directrice exécutive de Take This, est que même si nous savons comment créer de bons espaces, certaines normes, comportements et idéologies laides sont devenus incroyablement courants dans ces espaces. C’est un problème petit mais très bruyant – et ce volume signifie que le comportement s’est normalisé.

« Quand je dis toxique, je veux dire spécifiquement suprémaciste blanc misogyne, néo-nazi et autre langage xénophobe, ainsi que harcèlement et comportement méchant », a-t-elle déclaré. «Nous n’avons pas encore vu d’espace où ce genre de choses est réellement activement interdit ou activement expulsé d’une communauté. Nous identifions ces solutions pour résoudre ce problème, mais en ce moment, nous constatons des incidences très élevées. »

Cela éloigne non seulement les joueurs qui ne sont pas à l’aise dans ces espaces, mais aussi les professionnels de l’industrie qui ne se sentent pas en sécurité dans la communauté de leur propre jeu. Et il y a des preuves que les enfants dans ces espaces apprennent des comportements toxiques, parce que l’environnement en est tellement étouffé, a-t-elle ajouté.

« Chaque jeune homme blanc, un garçon aux États-Unis, est sur la voie explicite de la radicalisation à moins qu’il n’en soit retiré », a-t-elle déclaré. «Et donc je veux être vraiment clair. Ce ne sont pas que des jeux. Nous avons des solutions, mais nous devons les utiliser. Nous devons les mettre en œuvre. Nous devons réfléchir à cela. Et c’est pourquoi nous faisons le travail que nous faisons, et c’est pourquoi nous attirons l’attention des autorités réglementaires. »

Ce que vous devez savoir sur la législation à venir

En avril, la loi sur la sécurité numérique de l’UE est entrée en vigueur et la loi californienne sur la conception adaptée à l’âge a été adoptée en septembre et entrera en vigueur le 1er juillet 2023. Il est crucial que les développeurs en tiennent compte, car les autres États ne seront pas loin derrière.

« Je pense que le paysage réglementaire non seulement en Californie, mais au niveau fédéral aux États-Unis se réchauffe considérablement », a déclaré Crevoshay. «Nous avons parlé avec le Comité judiciaire du Sénat, avec le représentant Trent Hahn du Massachusetts. Ils aboient tous cet arbre non seulement autour de la protection des enfants, mais autour du problème plus large du comportement extrémiste dans les espaces en ligne.

Les lois de l’UE et de la Californie introduisent de nouvelles restrictions et règles de confidentialité concernant la collecte d’informations, la publicité ciblée et motifs sombres, ce qui signifie qu’une entreprise ne peut prendre aucune mesure dont elle sait ou a des raisons de savoir qu’elle est « matériellement préjudiciable » à la santé physique, à la santé mentale ou au bien-être d’un enfant. Deuxièmement, ils réglementeront le type de contenu qui apparaît sur une plate-forme.

« Non seulement nous, en tant que plateformes de jeux, devons suivre ces procédures en ce qui concerne la collecte d’informations, etc., mais nous devons également prendre des mesures pour protéger les enfants contre les contenus et contacts préjudiciables », a déclaré David Hoppe, associé directeur chez Gamma Law.

Mais on ne sait pas exactement comment cela se transférera dans le monde réel et quelles barrières de sécurité les sociétés de jeux devront mettre en place, a-t-il ajouté. La loi sur les services numériques de l’UE devrait également être adoptée au cours de l’été, qui demande aux plateformes de mettre en place des mesures pour protéger les utilisateurs contre les contenus illégaux en demandant aux adultes de choisir les types de contenus qu’ils souhaitent voir. En cas de non-respect, les entreprises se verront infliger des amendes substantielles. Par exemple, la loi californienne commence à 2 500 $ par enfant.

Ce que les sociétés de jeux peuvent faire maintenant

Malheureusement, il est facile de créer une communauté aujourd’hui, et les communautés tierces non officielles fleurissent. Et c’est ce que vous voulez, bien sûr, a déclaré Warren. Mais c’est aussi une malédiction, dans la mesure où modérer ces communautés est totalement intenable.

« Tout ce que vous pouvez vraiment faire, en tant que propriétaire, est de comprendre la culture que nous voulons établir autour de notre base de joueurs », a-t-il déclaré. « Nous voulons concevoir un jeu qui renforce cette culture et ne mène pas à ces événements négatifs où les utilisateurs peuvent être vraiment, vraiment énervés les uns contre les autres – et essayer de réduire le type de contenu haineux que les gens feront ou la discussion haineuse points que les utilisateurs ont dans le jeu et apportent à la communauté.

Une culture autour de la réglementation et des exigences de modération, qu’elle soit humaine ou IA, est essentielle à la tâche de créer des espaces sûrs, a ajouté Crevoshay, ainsi que les conséquences des comportements nuisibles.

« Vous avez besoin d’une approche de la carotte et du bâton », a-t-elle déclaré. « Un bon design va très loin, à la fois dans une communauté et dans le jeu lui-même, en augmentant le comportement pro-social, en augmentant les normes positives partagées et les idées ambitieuses. Mais si vous n’avez pas aussi le bâton, cela peut très facilement se transformer en un espace problématique.

« Les jours où tout va et fermant les yeux, cela ne volera plus même aux États-Unis, et certainement pas en Europe », a déclaré Hoppe. « Adoptez d’abord une approche territoriale et évaluez, en fonction du budget que vous êtes en mesure d’allouer à ce stade, où ces fonds devraient être dépensés. La loi californienne énonce en fait très précisément les étapes à suivre pour évaluer la situation actuelle et déterminer les points sur lesquels il faut se concentrer.

Il existe également des outils de conception de jeux actuellement disponibles qui aident les développeurs à créer des espaces sûrs. La Fair Play Alliance offre la Perturbations et préjudices dans le cadre des jeux en ligneun catalogue détaillé et complet de ce que nous savons sur les comportements problématiques dans le jeu aujourd’hui, dans le but de donner à l’industrie du jeu les connaissances et les outils nécessaires pour soutenir le bien-être des joueurs et favoriser des espaces de jeu plus sains et plus accueillants dans le monde entier.

« Si vous construisez à partir de zéro avec l’intention de créer des espaces plus accueillants pour tout le monde, il est vraiment possible de le faire », a déclaré Crevoshay. « Cela doit être intégré dès le début du processus de conception des espaces. »

Et malgré le fait qu’il existe des réglementations qui s’appliquent aux développeurs, « vous pouvez le faire simplement parce que c’est la bonne chose à faire », a déclaré Howie.

Ne manquez pas la discussion complète — regardez toute la session ici.

5/5 - (25 votes)
Publicité
Article précédentChris Pratt révèle la fin choquante de Star-Lord dans Guardians 3 : les fans outragés !
Article suivantC’est quoi la Tech ? Enfants et smartphones
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici