Présenté par Cohere
Comment créer une communauté de jeu plus invitante et inclusive ? Lors de cet événement VB On-Demand, les experts IA/ML de Cohere et Google Cloud plongent dans la gestion du contenu généré par les joueurs à grande échelle pour augmenter la rétention, promouvoir la positivité et créer une communauté de jeu amusante
Regardez gratuitement à la demande ici!
Construire et entretenir des communautés fortes est crucial dans un marché de jeux encombré, déclare David Wynn, responsable du conseil en solutions chez Google Cloud for Games. L’an dernier plus de 10 000 nouveaux jeux sont sortis uniquement sur Steam, et ce record semble être battu à nouveau cette année. Alors que les studios et les éditeurs se battent pour attirer l’attention des joueurs, ils constatent que les communautés peuvent rendre l’expérience plus collante et plus significative pour leur base de joueurs. Mais ce n’est que s’il ne devient pas la proie de la toxicité qui peut affecter tant d’espaces en ligne.
« Construire une communauté aide à intégrer les aspects humains fondamentaux de la conversation avec des amis, du partage d’expériences et de l’établissement de relations », déclare Wynn. « Si cela fonctionne dans le cadre de l’expérience de jeu que vous essayez de créer, il devient d’autant plus impératif de vous assurer que vous le concevez correctement et que vous vous assurez que c’est une bonne expérience pour toutes les personnes impliquées. »
Les défis sont fondamentaux, ceux qui sont intégrés à l’interaction humaine dans chaque arène bondée, pleine d’une diversité d’expériences, de la race, du sexe et de la classe, à la religion, et plus encore. Mais aussi, le large éventail de différences dans la façon dont les gens aiment interagir, s’attendent à interagir et sont incités à interagir, dit Wynn, et tout cela combiné crée la communauté d’un jeu ou d’un titre.
« Les gens apporteront leurs propres expériences, perspectives et défis potentiels à la communauté. Même si nous créons des mondes virtuels, ils viennent toujours d’ici et ils leur apportent tout ce qu’ils vivent ici », dit-il. « Nous pouvons créer, grâce à des outils et grâce aux connaissances que d’autres ont déjà acquises, des expériences pour changer la façon dont ils interagissent. La multiplicité et l’échelle sont deux choses que les studios et les éditeurs doivent garder à l’esprit, car le monde va nous frapper fort. Même si nous aimerions penser que nous pouvons construire nos propres îles, les gens sont venus de quelque part et ils l’apportent avec eux.
Ce qui peut mal tourner est propre à un titre en termes de façon dont une expérience communautaire est façonnée pour faciliter vos objectifs, de la complexité d’une expérience que vous concevez et de l’investissement de vos joueurs, et cela a un impact direct sur vos styles de modération et d’intervention. Un visage renfrogné peut signifier une mauvaise journée ; cela pourrait également indiquer une tendance plus large et plus insidieuse, ou signaler qu’un nouveau niveau de modération est nécessaire.
Ajouter l’IA au mix de modération de contenu
À l’époque, le nombre d’interventions disponibles lorsque les choses devenaient toxiques était limité, à la fois en théorie et en pratique. Un modérateur ou un administrateur peut appliquer le banhammer s’il décide que le comportement est inacceptable – s’il le voit au bon moment ou s’il est signalé au bon moment. Ou certains types de mots peuvent être bloqués par une simple substitution de chaîne, de sorte qu’ils apparaissent sous la forme de quatre astérisques au lieu d’une bombe F. Ce sont des outils efficaces qui font passer le message, même s’il s’agit d’une approche assez brutale, difficile à affiner et pratiquement impossible à mettre à l’échelle.
Le traitement du langage naturel (NPL), l’IA et les modèles basés sur l’apprentissage automatique ont ouvert des interventions beaucoup plus sophistiquées avec une classification encore plus facilement disponible. Que votre équipe de modération soit surchargée de travail ou que vos méthodes habituelles finissent par renvoyer des faux positifs, ces algorithmes permettent aux propriétaires de communauté de détecter les problèmes avant qu’ils ne commencent, et ils peuvent le faire à grande échelle.
« L’IA demande des ressources, des efforts et de l’attention pour s’entraîner, mais son fonctionnement est particulièrement économe en ressources et, à grande échelle, ouvre une toute nouvelle voie pour identifier le comportement que nous voulons soit minimiser, soit amplifier », déclare Wynn. « Cela crée également de nouveaux types d’interventions, que ce soit par le biais de chatbots ou par des types intéressants d’augmentation qui ne sont pas seulement des substitutions de chaînes « if, if else ».
L’IA/ML peut également analyser des modèles plus larges – pas seulement du texte, mais aussi des communications qui incluent des transcriptions vocales, en identifiant des comportements comme le deuil ou en donnant du fil à retordre aux autres joueurs. C’est le type de choses qui, dans les environnements synthétiques, doivent être identifiées de manière fiable afin qu’elles puissent être traitées ou atténuées rapidement.
« Rien de tout cela est nouveau. Je suis sûr que les gens cherchaient à rendre Pong agaçant à jouer contre lui lors de sa première sortie », déclare Wynn. « Mais ce que vous voyez avec les nouveaux modèles AI/ML en cours de développement et de publication, c’est que vous n’avez pas besoin d’être un scientifique des données pour traduire ces grands modèles de langage en quelque chose qui fonctionne réellement pour votre jeu, même si vous êtes un petit studio, ou vous essayez de vous en sortir vous-même. Au lieu de cela, vous avez une API de quelqu’un comme Cohere que vous pouvez simplement saisir et commencer à jouer avec tout de suite pour en voir les avantages.
Pour en savoir plus sur l’identification des modèles qui font que les communautés commencent à se dégrader, les solutions d’IA/ML accessibles à tous, les moyens les plus efficaces de les mettre en œuvre et plus encore, ne manquez pas cet événement VB On-Demand.
Regardez gratuitement à la demande ici!
Ordre du jour
- Adapter les outils à la langue vernaculaire et aux politiques uniques de votre communauté
- Accroître la capacité de comprendre les nuances et le contexte du langage humain
- Utiliser un langage IA qui apprend à mesure que la toxicité évolue
- Accélération significative de la capacité à identifier la toxicité à grande échelle
Présentateurs
- David Wynnresponsable du conseil en solutions, Google Cloud pour les jeux
- Mike LaviaResponsable des ventes aux entreprises, Cohere
- Dean TakahashiLead Writer, GamesBeat (modérateur)