Intéressé à savoir quelle est la prochaine étape pour l’industrie du jeu ? Rejoignez les dirigeants du jeu pour discuter des parties émergentes de l’industrie en octobre lors du GamesBeat Summit Next. Inscrivez-vous dès aujourd’hui.
Modulate a levé 30 millions de dollars pour développer son produit d’IA, ToxModqui analyse le chat vocal à l’aide de l’apprentissage automatique pour trouver des joueurs toxiques dans les jeux en ligne.
ToxMod utilise l’intelligence artificielle pour mettre en évidence les problèmes auxquels les modérateurs humains doivent prêter attention lorsque les joueurs discutent entre eux dans les jeux en ligne. C’est un problème qui ne fera qu’empirer avec le métavers, l’univers des mondes virtuels qui sont tous interconnectés, comme dans des romans comme Chute de neige et Prêt joueur un. La société a augmenté le tour grâce à de grands clients tels que Rec Room et Poker Stars VR qui comptent sur elle pour aider leurs gestionnaires de communauté à trouver les plus gros problèmes de toxicité.
« C’est un problème que tout le monde dans l’industrie a désespérément besoin de résoudre », a déclaré Mike Pappas, PDG de Modulate, dans une interview avec GamesBeat. « Il s’agit d’un besoin du marché à grande échelle, et nous attendions de prouver que nous avions réellement conçu le produit pour le satisfaire. »
Lakestar a mené le tour avec la participation des investisseurs existants Everblue Management, Hyperplane Ventures et d’autres. De plus, Mika Salmi, associé directeur de Lakestar, rejoindra le conseil d’administration de Modulate.
ToxMod de Modulate est un système de modération vocale proactif conçu pour capturer non seulement la toxicité manifeste (discours de haine, langage adulte) mais aussi des méfaits plus insidieux comme la préparation des enfants, la radicalisation violente et l’automutilation. L’IA du système a été formée sur plus de 10 millions d’heures d’audio.
Modulate, basé à Cambridge, dans le Massachusetts, veut changer la façon dont les développeurs de jeux entreprennent la lutte sans fin contre la toxicité en ligne, a déclaré Pappas. Il a dit que le financement est une validation de l’importance de la mission de l’entreprise.
« L’activité principale est la modération proactive de la voix », a déclaré Pappas. « Plutôt que de simplement vous fier aux rapports des joueurs, cela signifie que vous pouvez réellement remplir ce devoir de diligence et identifier tous les mauvais comportements sur votre plate-forme et vraiment faire quelque chose à ce sujet de manière plus complète. »
ToxMod utilise des modèles d’apprentissage automatique sophistiqués pour aller au-delà de la transcription et comprendre non seulement ce que dit chaque joueur, mais aussi comment il le dit, y compris son émotion, son volume, sa prosodie, etc. Ceci est crucial, car ce qui est nuisible dans un contexte peut être un discours amical ou vraiment encourageant dans un autre.
ToxMod a déclaré qu’il utilise sa compréhension nuancée de la voix pour différencier ces types de situations, en identifiant les pires acteurs tout en laissant tout le monde libre de profiter de sa propre approche de chaque jeu. Grâce à cette sophistication, ToxMod peut détecter les infractions avec une précision supérieure à 98 % (ce qui s’améliore encore avec le temps) et permettre aux équipes de modération de répondre aux incidents plus de 25 fois plus rapidement.
« J’ai vu l’entreprise pour la première fois il y a environ un an et demi. Nous l’avons vu comme une équipe avec la meilleure technologie de sa catégorie. Et c’est dans cela que nous investissons », a déclaré Salmi dans une interview. « Quand je l’ai vu, je ne pouvais pas croire ce que j’ai vu. »
La grande question était de savoir s’ils pouvaient commercialiser cela. Ils l’ont fait, a déclaré Salmi. Et Pappas a déclaré que la société avait un certain nombre de gros clients non annoncés qui l’utilisaient.
« De toute évidence, personne d’autre ne l’a. Nous avons longtemps cherché ce type de technologie et rien ne s’est approché », a ajouté Salmi.
De nombreuses entreprises sont confrontées à d’énormes volumes de rapports sur la toxicité. Dennis Fong, PDG de GGWP, qui utilise l’IA pour analyser le chat textuel, a rapporté que les modérateurs humains de ces entreprises ne peuvent parcourir qu’un infime pourcentage de ces rapports. GGWP se concentre sur des problèmes différents de ceux de Modulation, et GGWP cherche également à établir des scores de réputation pour les joueurs qui peuvent aider à évaluer leur comportement sur une longue période.
En utilisant ce type d’approche à long terme, les entreprises peuvent traiter de différentes manières les acteurs qui ne sont qu’occasionnellement toxiques par rapport à ceux qui s’y engagent beaucoup plus fréquemment. Ces soi-disant scores de réputation peuvent voyager avec les joueurs.
« Pour nous, le problème immédiat sur lequel nous essayons de vraiment nous concentrer est de savoir comment faire la lumière sur ce qui se passe en premier lieu », a déclaré Pappas. « Nous commençons par comprendre le paysage et comment la toxicité émerge, où elle se produit, comment les joueurs agissent et comment travaillons-nous étroitement avec nos clients pour concevoir des campagnes d’éducation. »
Si les joueurs sont punis, ils doivent comprendre pourquoi. Si la toxicité se produit au milieu d’allégations de tricherie, c’est important de le savoir. Modulate réfléchit également à la manière de préserver la santé mentale des modérateurs qui doivent faire face à tous les abus.
En ce qui concerne le métaverse, il est logique que les sociétés de jeux essaient de résoudre ces problèmes dans le contexte plus restreint de leurs propres jeux avant d’essayer d’aller se connecter avec les applications de tout le monde.
Là où les outils de modération vocale existants se concentrent uniquement sur les 8 % de joueurs qui soumettent des rapports, ToxMod offre une modération proactive qui permet aux modérateurs de plateforme et de jeu de prendre des décisions éclairées pour protéger les joueurs contre le harcèlement, les comportements toxiques et encore plus de dommages insidieux. Modulate a aidé les clients à traiter des milliers de cas de toxicité en ligne.
Pappas a déclaré que la société s’assurait de ne pas mal classer des choses comme le langage grossier, qui peut être acceptable dans des jeux comme Call of Duty, classés par maturité, par rapport aux insultes raciales. L’idée est de rendre les modérateurs plus efficaces sur toute la plateforme. Pappas a déclaré que le modèle de détection des problèmes est formé au fil du temps et qu’il ne cesse de s’améliorer.
Les modérateurs humains peuvent passer au crible les résultats et identifier les faux positifs, et le système peut en tirer des leçons.
« Ils peuvent commencer à prendre des mesures immédiates », a déclaré Pappas. «Parfois, il peut mal comprendre la conversation car le langage humain est compliqué. Et chaque jeu a des normes différentes.
Des mots comme « p0wned » doivent être considérés dans leur contexte pour déterminer s’ils sont utilisés dans un contexte agressif. Pappas a déclaré qu’il est important pour les voix modérées que vous ne puissiez pas compter sur la transcription de base, qui convertit les mots parlés en texte, car elle ne capture pas des choses comme le ton ou si vous criez ou non.
« Aucune entreprise n’a créé ce type d’ensemble de données spécialement conçu pour se concentrer sur de vrais chats vocaux sociaux en ligne », a déclaré Pappas. « Cela nous a permis d’améliorer la précision de nos modèles, qui surpasse tous les modèles de transcription des grandes entreprises publiques d’un pourcentage assez pratique. »
Étant donné que Modulate s’est concentré sur les principes fondamentaux de la gestion d’une entreprise solide, Pappas a déclaré qu’il avait de bonnes relations avec les VC et qu’il avait plus de facilité à collecter des fonds à un moment où il est difficile de le faire, même pour les sociétés de jeux. Salmi a déclaré qu’il est vrai que les VC deviennent plus exigeants et que les investissements prennent plus de temps, et c’est pourquoi il est heureux de trouver une entreprise comme Modulate.
L’entreprise a atteint ses jalons avec seulement 27 personnes, ce qui témoigne de la puissance de l’IA.
Le credo de GamesBeat lorsque couvrir l’industrie du jeu vidéo est « là où la passion rencontre les affaires ». Qu’est-ce que ça veut dire? Nous voulons vous dire à quel point l’actualité compte pour vous, non seulement en tant que décideur dans un studio de jeux, mais aussi en tant que fan de jeux. Que vous lisiez nos articles, écoutiez nos podcasts ou regardiez nos vidéos, GamesBeat vous aidera à en savoir plus sur l’industrie et à vous engager avec elle. En savoir plus sur l’adhésion.