Le potentiel de l’IA à perturber la musique est le sujet d’actualité, mais ajoutez le métaverse au mélange, et les possibilités deviennent encore plus époustouflantes.
Message invité par Éric Alexandre de Paysage sonore VR
Nous avons tous rêvé à des moments de collaborations musicales qui n’ont jamais existé.
- Et si Jimi Hendrix faisait un show avec Pink Floyd aux côtés de David Gilmour ?
- Et si Madonna et Michael Jackson s’associaient pour créer l’ultime EP pop fusion ?
- Et si Skrillex produisait un morceau de Garth Brooks avec un solo de Santana à la guitare ?
Au cours de la dernière année, beaucoup ont vu la puissance de l’IA text-to-image, des technologies capables de fusionner des mots ou des concepts en chefs-d’œuvre artistiques de qualité galerie. Mais combien de temps faudra-t-il avant que l’IA text-to-music n’existe, où vous pouvez taper vos artistes préférés, et en quelques secondes, elle crache non seulement une toute nouvelle piste, mais un album entier produit à votre goût ? Daft Punk remixant Mr. Roboto de Styx peut ressembler à de la science-fiction, mais cela arrive plus tôt que vous ne le pensez.
L’IA offre des possibilités illimitées pour remodeler le monde tel que nous le connaissons. Il nous fait entrer dans le futur, un peu comme Internet a sculpté l’aube du 21e siècle. Chez Groove Science Studios, nous créons l’avenir de la musique depuis près d’une décennie. Notre métaverse musical, Soundscape, consiste à faire l’impossible lorsqu’il s’agit de vivre de la musique en direct. Nous travaillons sur toutes sortes de technologies pour propulser la prochaine génération de concerts, et l’IA est à la pointe de toutes.
IA sonique
En 2017, nous avons commencé à travailler sur Sonic AI, une IA musicale avancée qui sert de base au Soundscape Musical Metaverse. Sonic AI est le moteur d’analyse qui pilote la réactivité audio de Soundscape et permet aux utilisateurs de jouer la musique de leur choix sur n’importe quel fournisseur de services de musique, en synchronisant les lumières et les effets visuels avec l’audio en temps réel. Au fur et à mesure qu’il traite ces données, Sonic AI est dans une phase de modulation constante, surfant sur les vagues de la chanson tout en ajustant automatiquement des centaines de variables sur chaque image de sortie. En utilisant les données de ses quatre sens, Cerebra, Pulsa, Spectra et Rhythma; Sonic AI peut écouter et analyser différentes parties de la chanson, en créant un modèle de données complexe profilant ses informations spectrales, harmoniques et mélodiques. C’est toute une équipe de production dans un algorithme offrant une flexibilité et une personnalisation infinies de l’expérience audiovisuelle.
Qu’est-ce que tout cela signifie vraiment dans la pratique?
Le résultat est que Sonic AI permet à chaque utilisateur de réaliser son expérience d’écoute la plus idéale dans Soundscape. Lors d’un spectacle virtuel et ne ressentant pas l’acte d’ouverture, votre ami vous a convaincu de vérifier? Pas de soucis, vous pouvez écouter ce que vous voulez entendre, à tout moment. C’est comme être sur la scène principale de Coachella et pouvoir échanger une épave de Frank Ocean contre une belle piste de Beyonce. C’est sauter dans la cabine de son et ajuster la production sonore et visuelle à votre goût personnel.
La musique live exige l’interprète, et c’est pourquoi une grande partie de notre temps de développement chez Soundscape a été consacrée à nos avatars Soundskin, des avatars complets personnalisables hyper réalistes dans lesquels vous pouvez entrer dans la réalité virtuelle. C’est une chose de créer un interprète humain réaliste, c’en est une autre de lui donner vie de manière naturelle grâce à l’animation. L’IA offre ici aussi des possibilités incroyables, avec la possibilité de s’entraîner sur les données de mouvement enregistrées de l’artiste, pour piloter de manière autonome cet avatar pendant les performances. Dans les concerts métavers du futur, déterminer qui est une personne réelle et qui est un avatar contrôlé par l’IA peut être une tâche difficile.
Nous pensons que l’IA et le métaverse offrent des possibilités illimitées pour remodeler le monde tel que nous le connaissons. Tout comme l’avancement de la technologie des haut-parleurs et Ableton a alimenté l’explosion des performances des festivals de musique live avec ses outils d’échantillonnage et de production innovants, l’IA offre un potentiel illimité pour faire sa propre marque en offrant une toute nouvelle forme de créativité musicale. Ceux qui utilisent ces outils et développent les meilleurs flux de travail prospéreront dans le monde de l’IA en tant que prochaine génération de têtes d’affiche.
Le jour viendra où vous entendrez une nouvelle chanson et ne pourrez pas dire si elle a été produite par un humain ou un protocole. Ou vous le saurez parce que les Beatles n’ont sorti aucune nouvelle musique en 53 ans, mais vous êtes assis à la maison en écoutant une liste de lecture de centaines de chefs-d’œuvre d’IA John Lennon frais à vos oreilles. Le futur c’est maintenant.
Éric Alexandre est l’innovateur métavers et le créateur de Paysage sonore VR, la destination de musique VR la plus ancienne au monde. Alexander explore l’intersection de l’art et de la technologie depuis plus de 25 ans et, en 2014, sa passion pour les arts audiovisuels a conduit à la création de son projet le plus ambitieux à ce jour.