Call of Duty: Modern Warfare 3 de cette année utilisera l’IA ToxMod de Modulate pour aider à modérer le chat vocal en multijoueur, a révélé Activision. Le système ne détectera pas les infractions en temps réel et ne pourra pas non plus vous expulser des jeux pour effroyable ou aveuglant. Il soumet simplement des rapports de mauvais comportement, le personnel d’Activision prenant la décision finale sur les mesures coercitives, qui pourraient impliquer l’examen des enregistrements pour déterminer le contexte d’une explosion.

Vous pouvez désactiver le chat vocal dans Call of Duty pour éviter d’être enregistré, mais il ne semble pas exister de moyen de désactiver la modération vocale de l’IA dans les/nouveaux jeux Call of Duty au moment de la rédaction. La technologie est en cours de test bêta à partir d’aujourd’hui, le 30 août, dans Modern Warfare 2 et Warzone en Amérique du Nord, la version mondiale en anglais étant prévue aux côtés de Modern Warfare 3 le 10 novembre.

Curieusement, moduler se vanter que « l’IA avancée de ToxMod comprend intuitivement la différence entre un discours amical et un comportement toxique vraiment nocif ». Étant donné que de nombreuses intelligences non artificielles, c’est-à-dire les êtres humains, ont du mal à faire cette distinction, je suis intéressé et un peu craintif de voir leur fonctionnement. La technologie ne se contente pas d’écouter les mots-clés coquins, mais « évalue le ton, le timbre, l’émotion et le contexte d’une conversation pour déterminer le type et la gravité du comportement toxique ».

Publicité

Dans une sortie sur le site de Modulate, Michael Vance, directeur de la technologie d’Activision, a décrit l’introduction de Toxmod dans COD comme « une étape cruciale vers la création et le maintien d’une expérience amusante, juste et accueillante pour tous les joueurs ». Le jeu utilise déjà un filtrage textuel pour le chat et les noms d’utilisateur dans le jeu, en plus d’un système de rapport sur les joueurs.

Trois soldats se lancent dans l'action dans Call Of Duty Modern Warfare 2

Modulate – fondée en 2017, avec parmi ses clients la société de Réalité virtuelle Schell Games et Riot – a une page Éthique dans lequel ils répondent à quelques-unes des critiques les plus courantes adressées à l’IA, telles que la probabilité que des algorithmes et des ensembles de données « neutres » transmettent les préjugés sociaux de leurs créateurset la dépendance de nombreux grands modèles de langage à l’égard d’informations protégées par le droit d’auteur ou d’informations fournies sans autorisation expresse.

« Nous considérons qu’il est non seulement vital pour notre entreprise, mais aussi pour notre responsabilité, de garantir que tous nos systèmes d’apprentissage automatique sont formés sur un large éventail représentatif de voix différentes correspondant à une gamme d’âge, d’identité de genre, de race, de type de corps. , et plus encore », peut-on lire. « Dans la mesure du possible, nous nous efforçons d’utiliser de vastes ensembles de données publiques dont la représentativité a déjà été étudiée, même si dans certains cas, nous devons rassembler notre propre discours de référence.

« Lorsque tel est le cas, nous nous efforçons soit d’embaucher un large éventail d’acteurs vocaux (lorsque la parole jouée est suffisante), soit de travailler avec notre équipe d’étiquetage de données formée pour identifier un ensemble de tests suffisamment diversifié. »

Modulate affirme que le système Toxmod est conçu et testé « pour garantir que nous ne sommes pas plus susceptibles de signaler certaines données démographiques comme nuisibles, étant donné le même comportement. Cela dit, nous prenons parfois en compte les données démographiques d’un individu pour déterminer la gravité d’un préjudice. Par exemple, si nous détectons un locuteur prépubère dans une conversation, nous pourrions évaluer certains types d’infractions plus sévèrement en raison du risque pour l’enfant.

« Nous reconnaissons également que certains comportements peuvent être fondamentalement différents selon les caractéristiques démographiques des participants », poursuit-il. « Bien que le mot en n soit généralement considéré comme une insulte ignoble, de nombreux joueurs qui s’identifient comme noirs ou bruns l’ont récupéré et l’utilisent de manière positive au sein de leurs communautés. Bien que Modulate ne détecte ni n’identifie l’origine ethnique des locuteurs individuels, il écoutera les conversations. des indices pour déterminer comment les autres participants à la conversation réagissent à l’utilisation de tels termes.

Il y a aussi une page de confidentialité détaillant quelles données vocales Modulate collecte afin à la fois de modérer le chat et de « former » son IA, et comment ces données sont stockées et anonymisées. Des idées sur tout ça ?

5/5 - (5 votes)
Publicité
Article précédentLe skin Fortnite Vivi Chroma disparaîtra dans 24 heures
Article suivantLes États-Unis aident le Costa Rica à obtenir un SOC robuste et une 5G sécurisée après le piratage

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici