Connectez-vous avec les meilleurs leaders du jeu à Los Angeles lors du GamesBeat Summit 2023 les 22 et 23 mai. Inscrivez-vous ici.


Kinetix, la startup d’intelligence artificielle apportant des emotes aux jeux vidéo et aux mondes virtuels, a annoncé Text2Emotes, une technologie d’intelligence artificielle générative qui annonce une nouvelle ère de contenu de jeu généré par l’utilisateur (UGC).

La société basée à Paris permet à quiconque de créer des animations 3D et des emotes pour les jeux – à partir de rien de plus qu’une simple invite textuelle.

« Nous nous sommes concentrés ces trois dernières années pour aider chacun à s’exprimer dans des mondes virtuels avec les emotes et l’animation. Et nous pensons que le moyen le plus simple pour les gens de s’exprimer aujourd’hui est le texte », a déclaré Yassine Tahi, PDG de Kinetix, dans une interview avec GamesBeat. « Si nous pouvons apporter quelques lignes de texte et que cela peut générer une expression d’individus directement dans le jeu, nous pensons que cela peut être la prochaine grande chose en termes d’expression dans les jeux. »

Text2Emotes offre l’un des tout premiers exemples d’IA capable de créer des animations et des emotes 3D jouables de haute qualité – des animations qui expriment une émotion – à partir d’une saisie de texte de base. Par exemple, les utilisateurs pourraient entrer dans une danse bien connue telle que « griddy » ou une invite littérale telle que « je suis en colère », et voir leurs avatars prendre vie grâce à des emotes générées par l’IA, a déclaré Tahi.

Publicité

Événement

Sommet GamesBeat 2023

Rejoignez la communauté GamesBeat à Los Angeles les 22 et 23 mai. Vous entendrez les esprits les plus brillants de l’industrie du jeu partager leurs mises à jour sur les derniers développements.

Inscrivez-vous ici

L’IA a été formée sur le vaste ensemble de données propriétaires rassemblé par Kinetix au cours des trois dernières années avec le consentement de sa base d’utilisateurs. Avec des centaines de milliers d’animations 3D, il produit une approche beaucoup plus avancée que les modèles typiques, qui exploitent des ensembles de données académiques limités, a déclaré Tahi.

De manière unique, Kinetix a créé un format qui permet d’enregistrer et de publier des animations sur plusieurs jeux et mondes virtuels, ce qui signifie que les émoticônes générées avec Kinetix peuvent être utilisées sur n’importe quel avatar, dans n’importe quel jeu vidéo ou monde métavers qui intègre le SDK Kinetix.

Kinetix Logo
Kinetix Logo
Kinetix Compte 45 Personnes Et A Levé 12,5 Millions De Dollars.

« Nous sommes à l’avant-garde de l’intégration de ces technologies dans les jeux », a déclaré Tahi.

Les développeurs et les éditeurs de jeux peuvent désormais ouvrir leurs jeux à une toute nouvelle ère de contenu généré par les utilisateurs, permettant aux joueurs d’importer des tendances virales dans leurs jeux préférés – ou même d’alimenter le suivant en proposant leurs propres emotes dans le jeu, Tahi a dit.

Les emotes sont utilisées par des MMO comme World of Warcraft depuis plus de deux décennies mais, après avoir explosé dans le grand public avec des jeux comme Fortnite et PUBG, elles deviennent rapidement une fonctionnalité incontournable pour l’expression de soi dans le contenu de jeu.

L’UGC est au cœur du succès de nombreuses plates-formes de jeu telles que Roblox, et est en passe de devenir la nouvelle norme pour aider les jeux à générer des revenus durables et durables, comme le montre l’annonce Creative 2.0 de Fortnite. Le potentiel de croisement des emotes est infini, les vidéos taguées #emote ayant reçu plus de 2,4 milliards de vues sur TikTok seul.

« Comme nous le savons, l’UGC devient le fondement du jeu moderne et permettre aux joueurs de générer leur propre contenu à la volée en utilisant l’IA en sera un élément essentiel », a déclaré Tahi. « Ainsi, pendant deux ans, nous nous sommes concentrés sur le perfectionnement de nos modèles d’IA et des animations qu’ils génèrent ; d’abord en utilisant des entrées vidéo et maintenant, incroyablement excitant, en utilisant simplement une simple invite de texte. Le premier cas d’utilisation évident de cette technologie est le jeu. Les emotes sont devenues un élément essentiel de l’expression de soi des utilisateurs et une source de revenus pour les fabricants de jeux, et notre technologie d’emotes alimentée par l’IA est déjà intégrée par certains des développeurs et constructeurs de monde virtuel les plus connus.

Kinetix Yassine Tahi
Kinetix Yassine Tahi
Yassine Tahi, Pdg De Kinetix.

Jay Lee, responsable mondial de l’écosystème de la plate-forme mondiale virtuelle Zepeto, qui compte plus de 400 millions d’utilisateurs dans le monde et est exploité par Naver Z, une société partenaire de Kinetix, a déclaré dans un communiqué : « La fonctionnalité Text2Emotes de Kinetix représente un cas d’utilisation passionnant pour l’IA générative. dans les mondes virtuels, avec le potentiel de permettre une nouvelle dimension d’expression pour les utilisateurs de Zepeto. Une fois intégré, il offrira à la communauté Zepeto une expérience sociale encore plus immersive.

Au cours des deux dernières années, Kinetix a ouvert la création d’animations 3D à tous ceux qui disposent d’IA vidéo-animation et d’outils d’édition sans code. Traditionnellement, l’animation 3D était un processus long et coûteux impliquant des experts 3D formés, ainsi que des logiciels et du matériel spécialisés.

La société compte près d’un million d’utilisateurs qui ont utilisé ses emotes dans des mondes virtuels, a déclaré Tahi.

La société a mené une analyse sur les emotes avec La Sandbox avec un laboratoire d’étude externe et trouvé des informations très intéressantes sur la façon dont les gens utilisent les émoticônes, pourquoi ils veulent des émoticônes.

« Cela nous donne un contexte pour cette technologie et pourquoi les gens veulent des emotes », a déclaré Tahi.

«Nous avons donc une connaissance de ce que veulent les utilisateurs. Nous avons également développé les plus grands ensembles de contenus et de données d’animation pour entraîner nos algorithmes. Et c’est très unique », a-t-il déclaré. « La différence entre nous et nos ensembles de données est que nous avons appris de toutes les vidéos des utilisateurs, nous savons donc quel mouvement ils veulent faire, nous savons quelle expression ils veulent faire. Nous créons donc des ensembles de données qui reflètent ce que les gens veulent faire pour s’exprimer.

En d’autres termes, il ne s’agit pas de recherche universitaire.

« Nous apprenons de ce que les joueurs et les créateurs veulent s’exprimer et l’utilisent pour créer notre propre ensemble de données et s’entraîner », a-t-il déclaré. « Nous apprenons quel contenu ils veulent et comment s’entraîner avec. »

Text2Emotes sera ajouté au Kinetix Studio et au SDK Kinetix existant, qui offre déjà une roue d’emotes prête à l’emploi et entièrement personnalisable et une bibliothèque en croissance constante de plus de 1 000 emotes sur PC, console et mobile, a déclaré Tahi. Le SDK Kinetix est actuellement intégré à plus de 10 jeux vidéo et mondes virtuels, dont The Sandbox et PolyLand. Plus tard cette année, Text2Emotes sera également proposé en tant qu’API.

Fondée en 2020 par Yassine Tahi et Henri Mirande, Kinetix a créé une plateforme générative alimentée par l’IA et des outils sans code qui permettent aux utilisateurs, créateurs, fabricants de jeux vidéo, plateformes métavers et marques de créer et d’éditer du contenu 3D animé en quelques secondes.

Avec Kinetix, les utilisateurs peuvent facilement créer des emotes pour exprimer leurs émotions à travers n’importe quel avatar dans n’importe quel monde virtuel, humanisant le métaverse avec une véritable expression de soi. Kinetix a levé un total de 12,5 millions de dollars en financement de démarrage et son équipe basée à Paris de 45 ingénieurs en apprentissage profond, experts en animation 3D, développeurs et scénaristes de jeux.

C’est un nouveau monde courageux.

« Nous devons également reconnaître le fait que l’IA générative fait d’énormes progrès », a déclaré Tahi. « Nous sortons une première version où vous ne pourrez créer qu’un ou deux mouvements comme disons je veux que mon avatar saute et s’assoie. Et à l’avenir, nous pourrons avoir des problèmes plus complexes comme avec de nouvelles réponses et expressions. L’API sera disponible dans notre SDK pour les développeurs dans les prochains mois. »

Le credo de GamesBeat lorsque couvrir l’industrie du jeu vidéo est « là où la passion rencontre les affaires ». Qu’est-ce que cela signifie? Nous voulons vous dire à quel point l’actualité compte pour vous, non seulement en tant que décideur dans un studio de jeux, mais aussi en tant que fan de jeux. Que vous lisiez nos articles, écoutiez nos podcasts ou regardiez nos vidéos, GamesBeat vous aidera à en savoir plus sur l’industrie et à vous engager avec elle. Découvrez nos Briefings.

4.9/5 - (30 votes)
Publicité
Article précédentSpéculations sur la date de sortie de Persona 5 The Phantom X
Article suivantAST SpaceMobile revendique le premier appel vocal spatial utilisant des smartphones standard
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici