- Publicité -


Consultez les sessions à la demande du sommet Low-Code/No-Code pour apprendre à innover avec succès et à gagner en efficacité en améliorant et en faisant évoluer les développeurs citoyens. Regarde maintenant.


Ubisoft et Riot Games se sont associés pour partager des données d’apprentissage automatique afin de pouvoir détecter plus facilement les discussions nuisibles dans les jeux multijoueurs.

Le projet de recherche “Zero Harm in Comms” vise à développer de meilleurs systèmes d’IA capables de détecter les comportements toxiques dans les jeux, ont déclaré Yves Jacquier, directeur exécutif d’Ubisoft La Forge, et Wesley Kerr, directeur de l’ingénierie logicielle chez Riot Games, dans une interview. avec GamesBeat.

- Publicité -

“L’objectif du projet est d’initier des alliances intersectorielles pour accélérer la recherche sur la détection des dommages”, a déclaré Jacquier. « C’est un problème très complexe à résoudre, tant sur le plan scientifique qu’en essayant de trouver le meilleur algorithme pour détecter tout type de contenu. Mais aussi, d’un point de vue très pratique, s’assurer que nous sommes en mesure de partager des données entre les deux sociétés à travers un cadre qui vous permettra de le faire, tout en préservant la vie privée des joueurs et la confidentialité.

Il s’agit d’une première pour une initiative de recherche intersectorielle impliquant le partage de données d’apprentissage automatique. Fondamentalement, les deux sociétés ont développé leurs propres réseaux de neurones d’apprentissage en profondeur. Ces systèmes utilisent l’IA pour passer automatiquement par le chat textuel dans le jeu afin de reconnaître quand les joueurs sont toxiques les uns envers les autres.

Événement

Sommet sur la sécurité intelligente

Découvrez le rôle critique de l’IA et du ML dans la cybersécurité et des études de cas spécifiques à l’industrie le 8 décembre. Inscrivez-vous pour votre laissez-passer gratuit aujourd’hui.

S’inscrire maintenant

Les réseaux de neurones s’améliorent avec les données supplémentaires qui leur sont transmises. Mais une entreprise ne peut introduire qu’une quantité limitée de données de ses jeux dans le système. Et c’est là que l’alliance entre en jeu. Dans le projet de recherche, les deux sociétés partageront les commentaires des joueurs non privés pour améliorer la qualité de leurs réseaux de neurones et ainsi accéder plus rapidement à une IA plus sophistiquée.

League of Legends Worlds Championship 2022. Quelqu’un est-il toxique ici ?

D’autres sociétés travaillent sur ce problème, comme ActiveFence, Spectrum Labs, Roblox, Microsoft’s Two Hat et GGWP. La Alliance du fair-play rassemble également des sociétés de jeux qui veulent résoudre le problème de la toxicité. Mais c’est le premier cas où les grandes entreprises de jeux partagent des données ML entre elles.

Je peux imaginer certaines choses toxiques que les entreprises ne veulent pas partager entre elles. Une forme courante de toxicité consiste à “doxxer” les joueurs ou à divulguer leurs informations personnelles, comme leur lieu de résidence. Si quelqu’un s’engage dans le doxxing d’un joueur, une entreprise ne devrait pas partager le texte de ce message toxique avec une autre, car cela reviendrait à enfreindre les lois sur la confidentialité, en particulier dans l’Union européenne. Peu importe que les intentions soient bonnes. Les entreprises devront donc trouver comment partager les données nettoyées.

“Nous espérons que ce partenariat nous permettra de partager en toute sécurité des données entre nos entreprises pour résoudre certains de ces problèmes plus difficiles à détecter là où nous n’avons que quelques exemples de formation”, a déclaré Kerr. “En partageant des données, nous construisons en fait un plus grand pool de données d’entraînement, et nous serons en mesure de vraiment détecter ce comportement perturbateur et finalement de le supprimer de nos jeux.”

Cette initiative de recherche vise à créer une base de données partagée intersectorielle et un écosystème d’étiquetage qui rassemble des données dans le jeu, ce qui permettra de mieux former les outils de modération préemptive basés sur l’IA pour détecter et atténuer les comportements perturbateurs.

Tous deux membres actifs de la Fair Play Alliance, Ubisoft et Riot Games croient fermement que la création d’expériences en ligne sûres et significatives dans les jeux ne peut passer que par l’action collective et le partage des connaissances. En tant que telle, cette initiative s’inscrit dans la continuité du plus grand parcours des deux sociétés consistant à créer des structures de jeu qui favorisent des expériences sociales plus enrichissantes et évitent les interactions nuisibles.

“Les comportements perturbateurs des joueurs sont un problème que nous prenons très au sérieux, mais aussi un problème
très difficile à résoudre. Chez Ubisoft, nous avons travaillé sur des mesures concrètes pour assurer
des expériences sûres et agréables, mais nous pensons qu’en se regroupant en tant qu’industrie,
nous pourrons nous attaquer plus efficacement à ce problème. dit Jacquier. “Grâce à ce partenariat technologique avec Riot Games, nous explorons comment mieux prévenir la toxicité dans le jeu en tant que concepteurs de ces environnements ayant un lien direct avec nos communautés.”

Les entreprises doivent également apprendre à se méfier des faux rapports ou des faux positifs sur la toxicité. Si vous dites “Je vais vous éliminer” dans le jeu de combat Rainbow Six Siege, cela pourrait simplement s’inscrire dans le fantasme du jeu. Dans un autre contexte, cela peut être très menaçant, a déclaré Jacquier.

Ubisoft et Riot Games explorent comment jeter les bases technologiques d’une future collaboration industrielle et créer le cadre qui garantit l’éthique et la confidentialité de cette initiative. Grâce aux jeux très compétitifs de Riot Games et au portefeuille très diversifié d’Ubisoft, la base de données qui en résulte devrait couvrir tous les types de joueurs et de comportements dans le jeu afin de mieux entraîner les systèmes d’IA de Riot Games et d’Ubisoft.

“Le comportement perturbateur n’est pas un problème propre aux jeux – chaque entreprise qui possède une plate-forme sociale en ligne s’efforce de résoudre cet espace difficile. C’est pourquoi nous nous engageons à travailler avec des partenaires de l’industrie comme Ubisoft qui croient en la création de communautés sûres et favorisent des expériences positives dans les espaces en ligne », a déclaré Kerr. “Ce projet n’est qu’un exemple de l’engagement plus large et du travail que nous faisons à travers Riot pour développer des systèmes qui créent des interactions saines, sûres et inclusives avec nos jeux.”

Encore à ses débuts, le projet de recherche “Zero Harm in Comms” est la première étape d’un ambitieux projet intersectoriel qui vise à bénéficier à l’avenir à l’ensemble de la communauté des joueurs. Dans le cadre de la première exploration de la recherche, Ubisoft et Riot se sont engagés à partager les enseignements de la phase initiale de l’expérience avec l’ensemble de l’industrie l’année prochaine, quel que soit le résultat.

Jacquier a déclaré qu’une enquête récente a révélé que les deux tiers des joueurs témoins de toxicité ne le signalent pas. Et plus de 50% des joueurs ont subi une toxicité, a-t-il déclaré. Les entreprises ne peuvent donc pas se fier uniquement à ce qui est rapporté.

Les propres efforts d’Ubisoft pour détecter les textes toxiques remontent à des années, et son premier effort d’utilisation de l’IA pour le détecter était efficace à environ 83 %. Ce nombre doit augmenter.

Kerr a souligné que de nombreux autres efforts sont déployés pour réduire la toxicité, et cette coopération sur un aspect est un projet relativement étroit mais important.

“Ce n’est pas le seul investissement que nous faisons”, a déclaré Kerr. “Nous reconnaissons que c’est un problème très complexe.”

Le credo de GamesBeat lorsque couvrir l’industrie du jeu vidéo est “là où la passion rencontre les affaires”. Qu’est-ce que ça veut dire? Nous voulons vous dire à quel point l’actualité compte pour vous, non seulement en tant que décideur dans un studio de jeux, mais aussi en tant que fan de jeux. Que vous lisiez nos articles, écoutiez nos podcasts ou regardiez nos vidéos, GamesBeat vous aidera à en savoir plus sur l’industrie et à vous engager avec elle. Découvrez nos Briefings.

Rate this post
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici