Mercredi, Activision annoncé qu’il introduira une modération du chat vocal en temps réel basée sur l’IA dans la prochaine version du 10 novembre de Call of Duty : Guerre moderne III. L’entreprise s’associe à Moduler pour mettre en œuvre cette fonctionnalité, en utilisant une technologie appelée ToxMod identifier et prendre des mesures contre les discours de haine, l’intimidation, le harcèlement et la discrimination.
Tandis que le défi à l’échelle de l’industrie Le comportement toxique en ligne n’est pas propre à Call of Duty, mais Activision affirme que l’ampleur du problème a été accrue en raison de la base massive de joueurs de la franchise. L’entreprise se tourne donc vers la technologie d’apprentissage automatique pour aider à automatiser la solution.
ToxMod est un système de modération vocale alimenté par l’IA, conçu pour identifier et agir contre ce qu’Activision appelle un « langage nuisible » qui viole les règles du jeu. code de conduite. L’objectif est de compléter les mesures anti-toxicité existantes de Call of Duty, qui incluent un filtrage de texte en 14 langues et un système de rapport sur les joueurs dans le jeu.
Activision affirme que les données de ses précédents efforts anti-toxicité ont restreint le chat vocal ou textuel pour plus d’un million de comptes qui violaient son code de conduite. De plus, 20 % de ceux qui ont reçu un premier avertissement n’ont pas récidivé, ce qui suggère qu’un retour clair est utile pour modérer le comportement des joueurs.
À première vue, la modération vocale en temps réel semble être une avancée notable pour lutter contre les comportements perturbateurs dans le jeu, d’autant plus que les problèmes de confidentialité qui peuvent généralement accompagner un tel système sont moins importants dans un jeu vidéo. L’objectif est de rendre le jeu plus agréable pour tous les joueurs.
Cependant, à l’heure actuelle, les systèmes de détection d’IA sont notoirement inconstant et peut produire des faux positifs, en particulier auprès des anglophones non natifs. Compte tenu des variations de qualité audio, des accents régionaux et des différentes langues, il est difficile pour un système de détection vocale de fonctionner parfaitement dans ces conditions. Activision dit un humain restera au courant des mesures coercitives :
La détection s’effectue en temps réel, le système catégorisant et signalant le langage toxique en fonction du code de conduite de Call of Duty au fur et à mesure qu’il est détecté. Les violations détectées du Code de conduite peuvent nécessiter des examens supplémentaires des enregistrements associés pour identifier le contexte avant que l’application ne soit déterminée. Les mesures prises ne seront donc pas instantanées. À mesure que le système se développe, nos processus et nos délais de réponse évolueront. »
De plus, Activision affirme que le système de modération du chat vocal de Call of Duty « soumet uniquement des rapports sur les comportements toxiques, classés par type de comportement et par niveau de gravité évalué sur la base d’un modèle évolutif ». Les humains déterminent ensuite s’ils appliqueront les violations de modération du chat vocal.
Le nouveau système de modération a commencé un test bêta à partir de mercredi, couvrant initialement l’Amérique du Nord et se concentrant sur les jeux existants. Call of Duty : Guerre moderne II et Appel du devoir : zone de guerre. Le déploiement complet de la technologie de modération, hors Asie, devrait coïncider avec le lancement de Guerre moderne IIIcommençant en anglais, avec des langues supplémentaires ajoutées au fil du temps.
Malgré les inconvénients potentiels des faux positifs, il n’y a aucun moyen de désactiver l’écoute de l’IA. Comme FAQ d’Activision dit« Les joueurs qui ne souhaitent pas que leur voix soit modérée peuvent désactiver le chat vocal en jeu dans le menu des paramètres. »