Attraction du Puy du Fou: Le Dernier Panache en immersion

Attraction bluffante en 4K du Puy du Fou, Le Dernier Panache combine des vidéoprojections monumentales en interaction avec des comédiens et des machineries complexes de théâtre. Et recourt, pour la première fois, au serveur Modulo Kinetic et au système de son multicanal L-ISA.*
dp1OK.jpg

 

C’est le plus grand espace du Puy du Fou jamais dédié à une attraction (7 500 mètres carrés), le pari artistique le plus ambitieux (avec sa scénographie tournante à 360°), l’investissement le plus élevé (de l’ordre de 19 millions d’euros), mais aussi la première installation du parc à faire l’objet d’une production tout en 4K.

« Plus de 500 personnes ont travaillé sur ce projet. Avec Le Dernier Panache, nous multiplions les innovations scéniques, techniques… », se félicite le président du Puy du Fou Nicolas de Villiers, metteur en scène de cette fresque historique. Laquelle brosse, en 35 minutes, la vie de Charette, chef chouan, mais aussi héros de la Guerre d’Amérique.

Adaptée d’un roman de Philippe de Villiers, l’histoire se donne à voir, à la manière d’un long travelling cinématographique, depuis une tribune circulaire motorisée prévue pour 2 400 personnes, elle-même entourée sur 360° par douze grands panneaux vidéo mobiles s’ouvrant sur six scènes différentes. Celles-ci multiplient les lieux et les ambiances (dans le bocage vendéen, au cœur d’une bataille navale, dans les cachots, etc.) grâce aux décors virtuels réalisés par Cosmo AV qui se mêlent aux décors réels : certains d’entre eux étant monumentaux comme cette reconstitution grandeur nature d’un navire du XVIIIe siècle présenté en coupe ou ce morceau de mer, plus grand qu’une piscine olympique.

 

Les contraintes d’une tribune tournante

La complexité de l’attraction, qui a demandé près de deux ans de préparation, résidait moins dans sa dimension – le parc est familier de ces événements grandioses – que dans l’interconnexion des techniques déployées (vidéoprojection 4K, spatialisation du son…), impactées par l’imposante tribune de 46 mètres de diamètre (470 tonnes), équipée spécialement d’une chaîne porte-câble lui assurant deux tours complets.

Cette configuration scénique n’ayant aucun précédent, tout le spectacle a fait l’objet en amont d’une simulation en 3D (sous Blender) : « Cette simulation nous a permis de calculer les angles de la tribune qui peut tourner jusqu’à 1,2 mètre par seconde, les positions des panneaux mobiles et même de préciser l’emplacement des vidéoprojecteurs, des projecteurs lumière, etc. », indique le technicien vidéo et effets spéciaux Charly Landreau, en charge du spectacle.

La vidéoprojection de 35 minutes devant être synchrone à la fois avec les déplacements de la tribune et les mouvements des rideaux (25 séquences chacun), le Parc a recouru au média serveur 4K Kinetic, le nouvel outil développé par Modulo Pi. Puissant outil de compositing temps réel, celui-ci a permis de découper, au pixel près, l’énorme image constituée par Cosmo AV (la résolution de la mire s’élève à 27 000 pixels par 2 160 pixels) et de gérer dynamiquement sa diffusion grâce à sa time-line inédite (lire en fin d’article « Focus sur le Modulo Kinetic »).

Pour communiquer toutefois avec la machinerie scénique dont les mouvements (enregistrés dans des automates) sont déclenchés par le show controler Médialon V6 Pro, le média serveur, ainsi que les processeurs du dispositif sonore, recourent à des codeurs IP industriels mis en place par Setap, une société spécialisée en automatismes : « Nous avons préféré que la vidéoprojection et la diffusion sonore soient complètement autonomes et séparées de la machinerie afin que chaque média puisse être consacré uniquement à sa tâche. »

 

Une mire de 27 000 pixels par 2 160 pixels

La vidéoprojection à 360 ° qui anime, pour chaque découverte d’une nouvelle scène, une portion d’environ 120 mètres linéaires d’écrans, devait se montrer particulièrement riche en média. « C’est l’un de nos plus gros projets 4K en termes de qualité d’image, de rendu, de stockage, etc. », constate le réalisateur Pierre-Yves Toulot (Cosmo AV).

Mis au point avec le décorateur du spectacle, le décor virtuel a fait d’abord l’objet d’un tournage intensif réalisé par Samuel Briand pendant trois jours dans le Grand Carrousel du Puy du Fou. Réaménagé pour l’occasion en studio, celui-ci disposait de deux grands plateaux équipés d’écrans verts de 10 mètres de haut, de grues et de praticables. Quelque 200 figurants (et chevaux) y ont été filmés, en plan large, au moyen d’une caméra Red Dragon Weapon 6K (chef opérateur Christophe Grelié). Ces scènes Live étaient incrustées en temps réel, avec le logiciel VDMX5, sur les décors fixes simulés en 2D.

En parallèle au tournage, l’équipe de Cosmo AV a réalisé, en fonction de la maquette 3D de prévisualisation établie par le Puy du Fou, de nombreux matte paintings 2D et animations 3D (Maya avec le moteur de rendu V-Ray) venant enrichir l’image projetée. « Celle-ci approche les 90 tera octets de données. Nous avons donc dû mettre à niveau le réseau de notre studio jusqu’à 10 giga bits pour la calculer », poursuit Pierre-Yves Toulot.

Mis en place directement par le Parc, douze vidéoprojecteurs Boxer Christie 4K projettent ces décors virtuels, qui ont demandé quatre mois d’élaboration à l’équipe de Cosmo AV. Installés sur la même trémie fixée dans la charpente de la salle, des projecteurs Led, dont les dernières lyres Martin Mac Aura, voisinent avec les lyres découpes motorisées Robe DL7S (etc.).

Au même titre que l’image, la lumière, ici signée par l’éclairagiste belge Koert Vandermeuler (Light Design), participe à la dramaturgie du spectacle en transfigurant les décors réels. Et celle-ci recourt à ce qui se fait de mieux au niveau du matériel : « Comme le spectacle, qui tourne trois à sept fois par jour, est prévu pour être exploité pendant au moins cinq ans, nous faisons en sorte d’utiliser des systèmes très performants. Mais l’exposition de cette technique n’est pas du tout l’objectif du Puy du Fou ! », souligne Charly Landreau.  

 

Immersion sonore en ultra haute définition

L’effet d’immersion n’est pas seulement apporté par les vidéoprojections qui recouvrent panneaux et proscenium (espace entre les tribunes et les panneaux), mais aussi par le son propre à embarquer le public au cœur de ce spectacle en mouvement. Pour cela, l’espace sonore a été conçu afin que le son suive le mouvement de rotation de la tribune sans que cela soit perceptible (et indispose le spectateur). Et ce, avec des enceintes demeurant fixées au plafond.

Pour cette diffusion multidimensionnelle, le Parc a fait appel à L-Acoustics et à son tout récent et performant système multicanal L-Isa. Lequel interprète les valeurs (en degré) de la position de la tribune et fait virtuellement tourner en fonction, via son processeur, les 24 points de son, à savoir 24 enceintes L-Acoustics (des Arcs de la gamme wi-fi), accompagnées de 18 Sub SB18 fixés entre les points de son et, sous la tribune tournante, une piste de SB28.

« Le logiciel de L-Isa permet aussi de positionner les sources dans un espace à 360 °, de jouer en temps réel avec les paramètres Pan, Distance et Width. La manipulation se montre très intuitive – le logiciel est compatible avec Pro Tools – et le processeur L-Isa peut traiter jusqu’à 96 canaux audio (96 kHz) », tient à préciser l’ingénieur du son Samuel Briand.  

L’enregistrement de la bande son signée par le compositeur suisse Nathan Stornetta a eu lieu à Prague avec le Prague Symphonic Orchestra et au Puy du Fou (pour les instruments ethniques). Le mixage, qui a duré trois semaines, s’est effectué dans le propre studio du Parc où ont été reproduites, en version miniature, les 24 pistes de la salle (via des 8XT de chez L-Acoustics), puis directement dans la salle par Samuel Briand sur une console Digico SD10 (doublée par une SD10 RE) reliée au réseau Optocore.

À noter que la bande son, qui a suivi une chaîne en 96 kHz, est lue par deux magnétos Ovation de chez Merging (un principal et un de secours), lesquels gèrent pas moins de 54 pistes dont les traductions en 6 langues, le time code, etc. « Nous avons ajouté 24 pistes supplémentaires de secours au cas où le processeur de L-Isa tomberait en panne. Nous avons aussi une version préenregistrée de la rotation de la tribune. »

Au même titre que tous les autres composants du spectacle, l’espace sonore est amené à se peaufiner au fil du temps et des réactions du public qui, pour l’instant, ne tarit pas d’éloges au vu des premières représentations. 

 

Focus sur le Modulo Kinetic

Développé par Modulo Pi en parallèle au serveur vidéo multi-diffusion Modulo Player (la version 4 est prévue avant l’été), dont la toute première version avait été utilisée sur Cinéscénie au Puy du Fou en 2012, Kinetic a été conçu pour gérer des shows complexes et permanents comme Le Dernier Panache.

Basé sur le même moteur graphique que Modulo Player, le système dispose d’une interface toujours très intuitive – comme celle du Player basée sur des playlists – mais qui repose, cette fois-ci, sur des time-line. Ce qui rend possible l’animation, dans le temps, de tous les médias (position, échelle, colorimétrie, warping…) via des keyframes, voire en les pilotant à partir d’un dispositif extérieur (Midi, etc.).

Si le Kinetic propose des fonctionnalités très avancées de vidéo mapping, il comprend aussi des outils de programmation nodale, lesquels facilitent la création de spectacles interactifs. La solution, qui permet l’import de scènes 3D (Collada DAE, FBX…), intègre également des outils 3D afin de simuler une vidéoprojection, gérer le recouvrement des faisceaux des projecteurs, projeter sur des objets mobiles, etc.

 

* Cet article est paru en intégralité, pour la première fois, dans Sonovision #3, pp 16-17. Abonnez-vous à Sonovision pour recevoir, dès leur sortie, nos articles dans leur totalité.


Articles connexes