Vous avez manqué l’excitation du GamesBeat Summit ? Ne t’inquiète pas! Connectez-vous maintenant pour suivre toutes les sessions en direct et virtuelles ici.
GGWP a annoncé avoir levé 10 millions de dollars de financement pour sa plate-forme basée sur l’IA pour modérer le comportement de la communauté dans les jeux multijoueurs.
BELLE PARTIE, BIEN JOUÉ a également déclaré qu’il fournira un accès gratuit à ses outils de modération à tous les développeurs, avec différents niveaux de paiement pour plus de services. L’entreprise introduit un modèle « libre d’utilisation ».
Il se concentre sur l’utilisation de l’IA pour analyser le chat textuel dans les jeux multijoueurs à la recherche de comportements toxiques, puis avertit les modérateurs de la communauté lorsqu’il trouve un besoin d’action, comme l’interdiction de joueurs, a déclaré Dennis « Thresh » Fong, PDG de GGWP (qui signifie « bon jeu , bien joué ») dans une interview avec GamesBeat.
« Nous sommes une plate-forme complète de modération de jeux. Et donc, cela signifie que nous avons des solutions que nous pensons être les meilleures de leur catégorie à travers un certain nombre de facteurs différents », a déclaré Fong. « Lorsque certaines personnes parlent de modération, elles parlent généralement de modération du chat ou du chat vocal. Nous avons donc une solution de chat textuel qui est bien plus qu’un simple mot-clé.
Il a ajouté : « Nous utilisons l’IA contextuelle pour comprendre et détecter les comportements qui sont généralement très difficiles à détecter. »
La société a travaillé avec des dizaines de développeurs au cours de l’année écoulée et est maintenant prête à rendre la plate-forme accessible à tous. Samsung Ventures et SK Telecom Ventures ont mené le tour.
GGWP a été fondé par l’entrepreneur de jeux Fong, un ancien joueur professionnel de haut niveau; le fondateur de Crunchyroll, Kun Gao ; et l’expert en données et en intelligence artificielle George Ng.
« Nous avons pensé dès le début que tous les développeurs devraient être en mesure de soutenir les expériences en ligne saines que les joueurs méritent », a déclaré Fong. « Même les développeurs les mieux dotés en personnel ne peuvent pas suivre ne serait-ce qu’une fraction des incidents signalés grâce à la modération humaine. En tirant parti de l’IA et d’une plate-forme sophistiquée d’outils, nous traitons le grand nombre d’incidents. Et maintenant que GGWP devient gratuit, nous espérons que toute l’industrie se joindra à nous dans notre mission d’aider à faire de nos communautés de jeux des espaces sociaux sûrs et agréables.
La technologie basée sur l’IA de GGWP a réussi à lutter contre la toxicité, les équipes utilisant la plateforme étant capables de trier en moyenne 98 % des signalements de joueurs. La plate-forme signale les rapports les plus sérieux pour un examen supplémentaire pour la modération humaine, offrant le modèle le plus complet et le plus efficace pour la modération communautaire aujourd’hui.
Fong a déclaré que l’entreprise peut détecter automatiquement des comportements tels que l’AFK intentionnel, le fait de quitter un match tôt dans un jeu en équipe, le tir ami, l’alimentation, le chagrin, la pêche à la traîne et plus encore.
Fong a déclaré que les jeux les plus populaires au monde reçoivent chaque année des milliards de rapports soumis par les utilisateurs et ne peuvent répondre qu’à moins de 0,1 % d’entre eux. GGWP révolutionne la gestion des rapports en validant, triant et hiérarchisant automatiquement les rapports et en améliorant le taux de réponse à plus de 98 %.
Bien sûr, s’il y a 100 millions de rapports sur le jeu toxique, cela signifie qu’il reste encore des millions de rapports à gérer pour les humains. Et c’est tout simplement trop. Pourtant, GGWP réduit considérablement les chiffres et rend les choses plus gérables pour les développeurs.
Tous les développeurs auront désormais accès à la gamme complète de produits GGWP, avec une tarification flexible à l’utilisation et sans engagement minimum.
Les solutions de GGWP fonctionnent sur n’importe quelle plate-forme, y compris Web, PC, mobile et consoles.
Une grande différence de réputation
Fong affirme que la plate-forme de son entreprise est la première plate-forme complète de modération de jeux et s’efforce de lutter de manière globale contre les comportements nuisibles et perturbateurs des joueurs grâce à une variété de solutions de pointe qui peuvent être utilisées ensemble ou séparément.
« C’est là qu’il n’y a pas d’autres fournisseurs dans notre espace, ce que les gens appellent généralement le comportement des joueurs », a déclaré Fong. « Nous l’appelons plus précisément « actions en jeu ». L’une des choses les plus frustrantes est de vous engager dans un match de compétition, puis de demander à l’un de vos coéquipiers de partir AFK (loin du clavier), ou de quitter le match plus tôt ou de « rage stopper » ou quelque chose comme ça. Et donc nous avons en fait des modèles d’IA uniques qui peuvent détecter si quelqu’un l’a fait intentionnellement ou non, puis répondre automatiquement de manière appropriée. De même, nous pouvons détecter des choses comme le chagrin, l’alimentation et la tricherie comme un tir ami intentionnel, et ainsi de suite.
Fong a déclaré que la société ne fournissait pas de solution anti-triche, ce que des sociétés comme Riot Games ou Activision font elles-mêmes. Mais il peut prendre les données de la solution anti-triche comme entrées dans le système de GGWP, a déclaré Fong.
Il s’agit notamment des rapports sur les joueurs, des noms d’utilisateur, de la modération du chat, de la détection du comportement des joueurs, d’une plate-forme de réputation, d’un contexte spécifique au jeu et d’un bot Discord. La partie consistant à donner à chaque compte de joueur – le compte, par opposition à une personne en particulier (ce qui pourrait être une violation de la vie privée) – une réputation est la plus intéressante pour moi.
De nombreux joueurs toxiques se ligueront contre un bon joueur et déposeront de faux rapports indiquant que ce joueur est toxique dans l’espoir de le faire bannir. Mais si le joueur a un bon score de réputation, alors GGWP ne signalera pas automatiquement ce joueur pour interdiction malgré les rapports. Il vérifierait également si les signalements proviennent de comptes de mauvaise réputation.
Chaque incident, qu’il soit détecté par l’IA, signalé par l’utilisateur ou identifié par une source externe, transite par la plate-forme GGWP et affecte le score de réputation d’un utilisateur. Des cotes de crédibilité sont également générées en fonction de la fréquence à laquelle GGWP valide le rapport d’un joueur.
En théorie, les fonctionnalités de création de rapports sur les joueurs permettent aux utilisateurs d’identifier les mauvais acteurs de l’écosystème. La réalité, bien sûr, est que 40% à 50% des rapports déposés sont faux ou invalides, a déclaré Fong. Il y avait un petit jeu avec 30 000 joueurs et la société a reçu plus de 100 000 rapports au cours de son premier mois.
« Vous pouvez imaginer que cela devient complètement intenable très, très rapidement », a déclaré Fong. « Nous avons donc construit un système capable de trier et de traiter automatiquement ces signalements. Et comment nous faisons cela, bien sûr, en déployant une IA qui peut détecter la toxicité dans le chat et la détecter automatiquement dans les actions et les comportements dans le jeu, ce qui signifie que nous pouvons réellement valider quand quelque chose s’est produit.
L’entreprise l’utilise pour établir un score de crédibilité sur chaque compte d’utilisateur, en fonction de la fréquence à laquelle l’entreprise peut valider que, lorsqu’elle a signalé un autre utilisateur pour un mauvais comportement, le rapport était crédible.
Si un rapport provient d’un utilisateur avec une faible cote de crédibilité, GGWP rejettera le rapport.
« Et de même, nous pouvons également aider à identifier qui sont les très bons acteurs, ceux qui vous aident à contrôler votre communauté », a déclaré Fong. « Tout ce que nous suivons alimente un score de réputation pour l’utilisateur, ce qui, je pense, est assez explicite. Et ce score de réputation que nous fournissons à l’entreprise. Il est donc évidemment utilisé par tous nos modèles. Mais il est également restitué gratuitement aux clients.
Et Fong a déclaré que les noms d’utilisateur sont plus que de simples identifiants ; ils sont le premier point d’interaction entre les joueurs au sein de la communauté d’un jeu. GGWP détecte le langage non naturel, l33tspeak, et les solutions de contournement que les joueurs utilisent pour créer des noms d’utilisateur inappropriés.
« Comme vous pouvez l’imaginer, c’est généralement la première chose qu’un utilisateur essaiera de faire, choisir un nom d’utilisateur inapproprié, nous utilisons donc également l’IA pour cela », a déclaré Fong. « Et puis nous avons aussi un bot Discord, qui utilise nos mêmes modèles de chat et de réputation que vous pouvez simplement déployer sur votre serveur Discord pour la modération également. »
GGWP va également au-delà des simples filtres basés sur des mots-clés en utilisant l’IA contextuelle pour identifier et répondre aux comportements difficiles à détecter comme le sarcasme, la critique du gameplay, l’intimidation, le discours de haine, le toilettage des enfants, etc.
Le bot Discord de GGWP exploite également les mêmes modèles de chat et de réputation pour aider à modérer les serveurs Discord et apporte de manière pratique les incidents Discord dans la même vue sur la plate-forme GGWP. Et le système prend uniquement en compte des facteurs supplémentaires pour aider à déterminer l’intention du joueur et le contexte de chaque incident.
Par exemple, cela ne pénalisera pas les gens pour ce qui semble être un chat toxique s’ils se moquent de leurs amis. D’autres exemples incluent : rang/compétence du joueur, niveau d’activité, qu’il s’agisse d’un joueur occasionnel ou classé
match, etc…
En vous concentrant sur le comportement des joueurs, vous pouvez apprendre à gouverner une communauté. Par exemple, un joueur peut jouer 100 parties en une journée et atteindre un point d’ébullition et faire quelque chose de toxique. Ce joueur pourrait se voir dire de se détendre, plutôt que d’être purement et simplement banni, car tout le monde a un point de rupture, a déclaré Fong.
« Au lieu de demander à un modérateur de le rechercher et de l’examiner, notre système le traitera automatiquement », a déclaré Fong.
La plate-forme de GGWP a été soutenue par des investisseurs et des sociétés de jeux de premier plan, notamment Bitkraft Ventures, Makers Fund, Griffin Gaming Partners et Riot Games. GGWP compte 40 personnes.
Une chose qui est utile, c’est lorsqu’une entreprise a plus d’un jeu et qu’elle peut identifier un utilisateur toxique non seulement dans un jeu mais dans plusieurs jeux. Malheureusement, pour des raisons de concurrence ou de confidentialité, ces informations ne peuvent pas être partagées entre des entreprises concurrentes. Et cela donne aux joueurs toxiques une chance de passer d’un jeu à un autre, en chagrinant les joueurs dans un jeu jusqu’à ce qu’ils soient démarrés, puis en faisant de même dans un autre jeu. Fong a déclaré qu’il n’y avait pas vraiment de solution pour ces joueurs toxiques qui rebondissaient comme ça, sauf qu’ils pourraient éventuellement manquer de jeux populaires auxquels sauter.
Une alliance d’entreprises pourrait arrêter de tels acteurs, mais ce n’est pas quelque chose que GGWP poursuit aujourd’hui, a déclaré Fong. C’est peut-être une chose à laquelle toute l’industrie devrait penser pour l’avenir.
Le credo de GamesBeat lorsque couvrir l’industrie du jeu vidéo est « là où la passion rencontre les affaires ». Qu’est-ce que cela signifie? Nous voulons vous dire à quel point l’actualité compte pour vous, non seulement en tant que décideur dans un studio de jeux, mais aussi en tant que fan de jeux. Que vous lisiez nos articles, écoutiez nos podcasts ou regardiez nos vidéos, GamesBeat vous aidera à en savoir plus sur l’industrie et à vous engager avec elle. Découvrez nos Briefings.