Connectez-vous avec les meilleurs leaders du jeu à Los Angeles lors du GamesBeat Summit 2023 les 22 et 23 mai. Inscrivez-vous ici.


Le jeu en ligne a explosé au cours de la dernière décennie et le jeu est devenu plus social. Le chat vocal est le moyen de communication préféré dans les jeux sociaux, mais c’est aussi le moyen le plus toxique.

C’est l’une des conclusions d’un nouveau rapport de Discoursune startup finlandaise qui utilise l’apprentissage automatique pour aider à arrêter les discours toxiques dans le chat vocal des jeux.

Speechly a commandé une étude Voicebot pour mener une enquête auprès de plus de 1 000 joueurs en ligne américains, et il a constaté que le chat vocal est largement utilisé aujourd’hui et apprécié par les joueurs. Mais ils disent aussi que c’est le pire canal de toxicité en termes de portée, de fréquence et de gravité.

Speech Vb Impact Of Toxic Behavior Incident
Speech Vb Impact Of Toxic Behavior Incident
Les Joueurs Ne Jouent Pas Autant À Cause D’un Comportement Toxique.

Et il ne semble pas que cela se terminera bientôt, étant donné qu’environ les deux tiers des victimes de comportements toxiques dans le chat vocal de jeux en ligne n’ont jamais signalé d’incident, et ceux qui n’ont pas signalé tous les incidents. Le problème est beaucoup plus important que ce qui avait été signalé précédemment, a déclaré Otto Söderlund, PDG de Speechly, dans une interview avec GamesBeat.

Publicité

Événement

Sommet GamesBeat 2023

Rejoignez la communauté GamesBeat à Los Angeles les 22 et 23 mai. Vous entendrez les esprits les plus brillants de l’industrie du jeu partager leurs mises à jour sur les derniers développements.

Inscrivez-vous ici

« Selon cette recherche, les deux tiers des joueurs utilisent en fait le chat vocal pour les jeux. Je pensais que le chat vocal était un peu plus tôt dans la courbe d’adoption. Mais il semble qu’il soit en fait assez avancé dans la courbe d’adoption », a déclaré Söderlund.

Speech Vb Gamer Sentiment About Voice Chat
Speech Vb Gamer Sentiment About Voice Chat
Ce Que Les Joueurs Pensent Du Chat Vocal.

« Il n’était pas surprenant qu’il y ait des quantités massives de toxicité », a déclaré Söderlund. « Environ 70 % des utilisateurs de chat vocal déclarent avoir vécu un événement toxique. Cela représente un énorme défi à l’échelle de l’industrie.

Söderlund a déclaré que les profils de toxicité sont continus et répétitifs, les joueurs affirmant que le nombre moyen qu’ils ont connu est supérieur à trois incidents. Cela signifie que ce n’est pas aléatoire et qu’il est plus structurel.

« Ceux qui déposent des rapports ne déposent pas réellement tous les incidents », a déclaré Söderlund.

L’enquête a été réalisée en décembre et comporte une marge d’erreur d’environ 5 %. Au total, les travaux ont duré environ trois mois.

Amener l’IA et l’apprentissage automatique à la table

Des entreprises comme Modulate, Speechly et Spectrum Labs utilisent toutes l’IA pour s’attaquer au problème grâce à l’automatisation. Mais leurs solutions doivent être adaptées au type de jeu et de joueur, car les jeux pour enfants ont une tolérance beaucoup plus faible à la toxicité que les jeux pour adultes comme Call of Duty.

De plus, il existe des problèmes insidieux qui rendent difficile la détection d’un comportement toxique. Les fausses accusations de comportement toxique dans le chat vocal sont un problème connu dans les jeux où les victimes sont à nouveau harcelées, et peu de sociétés de jeux ont un moyen de vérifier qui dit la vérité.

Les types de toxicité

Le Chat Vocal Est L'Un Des Pires Canaux De Toxicité.
Le Chat Vocal Est L'Un Des Pires Canaux De Toxicité.
Le Chat Vocal Est L’un Des Pires Canaux De Toxicité.

Le harcèlement sexuel est parmi les plus élevés en termes de types de toxicité. Environ 15,9% des utilisateurs en ont fait l’expérience. D’autre part, les injures offensantes ont été subies par 39,9 % et la pêche à la traîne par 38,4 %. L’intimidation était d’environ 29,9 %.

Quant à l’utilisation efficace de l’IA pour appliquer différentes règles pour différents jeux, Söderlund a déclaré: «L’IA peut absolument gérer cela. Chaque plate-forme a ses propres règles qui doivent être appliquées, il y a des différences et chaque titre différent a une culture différente. Vous pouvez traiter toutes les conversations via l’IA et vous aurez une visibilité en temps réel sur tout ce qui se passe.

Solutions

Discours
Discours
Ce Que Les Joueurs Veulent Dans La Modération Du Chat Vocal.

Les joueurs privilégient les solutions allant de la surveillance proactive et de l’enregistrement audio pour vérifier les incidents au simple signalement en un clic.

Résoudre la toxicité est un défi de taille, car de plus en plus d’entreprises prévoient de nous mettre tous en ligne avec des idées comme le métaverse. Ce n’est pas une quantité insignifiante de données à passer au crible. Il y a des millions de joueurs qui jouent à un jeu chaque jour pendant des heures à la fois. Cela représente des dizaines de millions de données audio générées chaque jour.

Söderlund a convenu que l’une des approches courantes pour faire face à la toxicité est bonne. Plutôt que d’interdire des personnes pour chaque signalement, les modérateurs peuvent suivre ceux qui ont signalé leur comportement, puis leur attribuer un score de réputation. Ce score peut être utilisé au fil du temps pour prendre des mesures contre eux, comme les interdire ou simplement leur dire ce qui n’est pas acceptable.

« Il est également assez clair que la plupart des comportements toxiques proviennent d’un très petit pourcentage de joueurs », a déclaré Söderlund. « C’est une petite population qui crée les plus gros problèmes de volume. L’utilisation des scores de réputation aide à détecter les personnes vraiment problématiques.

Speech Ottohannes Helsinki
Speech Ottohannes Helsinki
Otto Söderlund Et Hannes Heikenheimo Ont Fondé Speechly.

L’entreprise de Söderlund a réuni une équipe d’experts en apprentissage automatique pour utiliser l’IA de reconnaissance vocale pour détecter les paroles toxiques et y faire face. L’équipe compte 14 personnes et ses investisseurs incluent Y Combinator.

« Nous avons pratiquement travaillé sur les problèmes de traitement du langage naturel au cours de la dernière décennie, résolvant certains des problèmes les plus difficiles », a-t-il déclaré.

La startup a démarré à Helsinki il y a quelques années, a découvert comment faire de la reconnaissance vocale de manière rentable, s’est concentrée sur les jeux plus récemment, et maintenant sa technologie est utilisée dans certaines des plus grandes entreprises du monde dans des tests pilotes pour modérer la parole.

Mais je ne peux pas dire que je suis aussi optimiste que Söderlund que la technologie résoudra ce problème humain.

Le credo de GamesBeat lorsque couvrir l’industrie du jeu vidéo est « là où la passion rencontre les affaires ». Qu’est-ce que cela signifie? Nous voulons vous dire à quel point l’actualité compte pour vous, non seulement en tant que décideur dans un studio de jeux, mais aussi en tant que fan de jeux. Que vous lisiez nos articles, écoutiez nos podcasts ou regardiez nos vidéos, GamesBeat vous aidera à en savoir plus sur l’industrie et à vous engager avec elle. Découvrez nos Briefings.

Rate this post
Publicité
Article précédentObjectifs commerciaux Dynasty surévalués et sous-évalués : mars 2023
Article suivantL’Allemagne pèserait l’interdiction de Huawei 5G. La Chine se dit « perplexe »
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici