Une équipe de recherche chinoise de l’Université de Wuhan et de l’Université de technologie du Hubei a développé un cadre d’apprentissage automatique qui peut transformer des photographies en arrière-plan de style anime de haute qualité. Leur étude comprend un exemple de photo rendue en « Hayao Miyazaki, «  »Paprika« (un film réalisé par Satoshi Kon), et « Makoto Shinkai » modes.

Animegan.png

Le cadre proposé s’appelle «AnimeGAN: un nouveau GAN léger pour l’animation photo». L’approche combine le transfert de style neuronal et les réseaux antagonistes génératifs (GAN) pour obtenir des résultats rapides et de haute qualité avec un cadre léger. Le but du cadre est d’aider les artistes à gagner du temps lors de la création des lignes, des textures, des couleurs et des ombres.

Les auteurs de l’étude Jie Chen, Gang Liu et Xin Chen ont d’abord soumis l’article au Symposium international sur le calcul et les applications de l’intelligence 2019, et il est devenu disponible via le centre de littérature universitaire en ligne. Lien Springer le 26 mai. ITMedia a souligné la recherche dans un article publié mardi.

Un utilisateur de GitHub du nom de « TachibanaYoshino » a implémenté le code open source pour AnimeGAN en utilisant la plate-forme d’apprentissage automatique Tensorflow. Tout le monde peut télécharger le code et utilisez-le pour créer leurs propres images de style anime.

Publicité

L’industrie de la technologie a continué de faire des progrès pour développer des programmes d’intelligence artificielle pour aider à la charge de travail de production d’anime. Dwangode Yuichi Yagi a lancé un programme d’IA qui crée une animation intermédiaire en 2017. Dwango puis a annoncé que le programme était utilisé pour certaines parties de FLCL progressif. Imagica Groupe et OLM numérique s’est associé à l’Institut des sciences et technologies de Nara (NAIST) pour développer une technique de coloration automatique, élargissant ainsi davantage les options d’IA.

Société de jeux vidéo NCSoft (Guild Wars 2) des chercheurs Jun-Ho Kim, Minjae Kim, Hyeonwoo Kang et Kwanghee Lee ont présenté un programme qui utilise les réseaux d’adversaires génératifs (GAN) pour transformer des personnes réelles en personnages d’anime l’année dernière. Le moteur d’intelligence artificielle DeepAnime d’AlgoAge Co. peut générer automatiquement une animation parlante basée sur une seule image et un enregistrement vocal.

L’éditeur de mangas Hakusensha a commencé à utiliser le programme de coloration automatique PaintsChainer pour certaines de ses sorties de mangas en ligne.

La source: ITMedia (Yūki Yamashita)


Rate this post
Publicité
Article précédentPUBG Squad montre comment gérer un BRDM
Article suivantApple place Huawei au premier rang des expéditions trimestrielles de tablettes

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici