Une version de cet article a été publiée dans la newsletter de TIME Into the Metaverse. Abonnez-vous pour recevoir un guide hebdomadaire sur l’avenir d’Internet. Vous pouvez trouver les anciens numéros de la newsletter ici.

Si vous regardiez le Diffusion en direct de Coachella sur YouTube le samedi soir, vous auriez peut-être fait une double prise alors que des arbres feuillus géants et un perroquet de la taille de Godzilla s’est lentement élevé au-dessus de la scène de l’artiste électronique Flume. Étaient-ce des structures gonflables géantes ? Des mirages sur un écran LED de 200 pieds de haut ? De pures hallucinations de l’esprit ?

Aucune de ces réponses. Cette année, Coachella s’est associé à Unreal Engine, l’outil de développement de logiciels 3D d’Epic Games, dont j’ai parlé dans cette newsletter il y a deux semaines, pour créer ce que les organisateurs disent être le premier flux en direct à ajouter la technologie de réalité augmentée (AR) dans une performance de festival de musique. . Unreal Engine a travaillé avec l’équipe artistique de Flume et d’autres collaborateurs techniques pour créer des images 3D psychédéliques massives qui se sont parfaitement intégrées à sa scénographie et à son décor, flottant autour de l’artiste et dans le ciel indien.

Mais personne au festival ne pouvait voir ces énormes perroquets, seuls les spectateurs à la maison. Le résultat, bien que ne durant que quelques minutes, sert de modèle pour la façon dont les planificateurs d’événements en direct pourraient utiliser la technologie métaverse à l’avenir pour créer des expériences uniques pour les téléspectateurs à domicile. De nombreux créateurs de métavers pensent que les événements en direct seront de plus en plus hybrides avec des composants numériques et réels, et que des outils immersifs pourraient aider à rendre chaque version de l’événement distincte et souhaitable en soi. « Cela n’a aucun sens de simplement recréer virtuellement l’expérience musicale en direct », déclare Sam Schoonover, responsable de l’innovation pour Coachella. « Au lieu de cela, vous devriez donner aux fans quelque chose de nouveau et de différent qu’ils ne peuvent pas faire dans la vraie vie. »

Publicité
YouTube video

Au cours des deux dernières années, les visuels AR ont fait leur chemin dans les émissions en direct, bien que principalement sous forme de petits gadgets. Riot Games a amené un dragon géant au cérémonies d’ouverture de la finale de League of Legends Worlds 2017; une caméra a suivi la bête hurlante alors qu’elle volait autour des fans du stade. En septembre dernier, une panthère géante a traversé le stade des Panthers de la Caroline de la même manière. (La panthère était aussi créé avec Unreal Engine.)

Schoonover essaie d’utiliser des effets similaires pour le livestream de Coachella depuis des années dans le but d’élargir son public au-delà des limites de l’Empire Polo Club. « L’audience en ligne des spectacles augmente de façon exponentielle au point qu’il y a peut-être 10 ou 20 fois plus de personnes qui regardent le spectacle via une diffusion en direct qu’au festival », a déclaré Schoonover. « Parce que l’expérience à la maison ne sera jamais comparable à l’expérience du festival, nous voulons donner aux artistes de nouvelles façons de s’exprimer et d’augmenter le nombre de téléspectateurs dans le monde entier. »

Cependant, les efforts précédents d’expérimentation de la RA à Coachella ont été contrecarrés par le coût de production et le manque d’intérêt des artistes interprètes ou exécutants. Cette année, il a fallu un partenariat avec Epic, qui vise à réduire les barrières à l’entrée pour les créateurs 3D, et l’adhésion de Flume, un musicien électronique qui met depuis longtemps l’accent sur l’artisanat visuel lors de ses concerts, pour mener à bien le projet. . Parmi les acteurs clés de ce processus figuraient l’artiste Jonathan Zawada, qui a beaucoup travaillé sur des projets audiovisuels avec Flume, notamment sur NFTet le réalisateur Michael Hili, qui a réalisé le récent film extrêmement planant de Flume vidéo musicale, « Ne rien dire ».

Le résultat a été la création d’énormes oiseaux australiens (Flume est australien), de fleurs aux couleurs vives et d’arbres feuillus se balançant dans le vent, au-dessus de la scène et de la foule grouillante. Trois caméras de diffusion équipées d’un suivi matériel supplémentaire ont permis à l’équipe de production d’insérer ces graphiques 3D dans le flux vidéo en temps réel.

Les graphismes ne sont que le début de ce qui pourrait être créé en réalité augmentée pour les concerts en direct, explique Schoonover. Les futurs interprètes pourraient avoir des effets d’éclairage entourant leurs visages à tout moment, par exemple, ou synchroniser leurs mouvements de danse avec ceux des avatars environnants. Il est facile d’imaginer que les concepteurs de production ajoutent, en temps réel, le type d’effets que l’omniprésent réalisateur de vidéoclips Cole Bennett ajoute à ses vidéos en post-production, ou une performance de Snoop Dogg dans laquelle il est entouré de ses personnages du métaverse Sandbox.

Et Schoonover dit que ces expériences AR passeront à un autre niveau lorsque les lunettes AR seront normalisées. Finalement, vous pourrez peut-être voir le concert en 3D, depuis le site du festival, entouré d’oiseaux, de plantes et de tout ce que les artistes 3D rêvent. « Quand il s’agit de personnes qui souhaitent vivre cette expérience Coachella depuis leur canapé, c’est le point d’entrée », dit-il.

Abonnez-vous à Into the Metaverse pour un guide hebdomadaire sur l’avenir d’Internet.

Rejoignez TIMEPieces sur Twitter et Discorde

Plus d’histoires incontournables de TIME


Contactez-nous à lettres@time.com.

Rate this post
Publicité
Article précédentComment télécharger le fichier APK de mise à jour bêta de PUBG Mobile 2.0 sur les appareils Android
Article suivantVotre appareil photo iPhone a un ÉNORME secret – et les fans d’Apple en deviennent fous

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici