Installation 7 (Interaction espace sonore-espace visuel)

Publié le par Olivier Lussac

Examinons un article de Iannis Xenakis intitulé « Espaces et sources d’audition et de spectacles »  et ses résonances actuelles, ainsi que la notion d’espace sonore (Iannis Xenakis, « Espaces et sources d’audition et de spectacles », Présences de Iannis Xenakis, sous la direction de Makis Solomos, Centre de documentation de la musique contemporaine, Paris, 2001, p. 197-200.). Xenakis est assez explicite dans ce texte quand il aborde la question de la source sonore et de la configuration spatiale, de la (ou les) source sonore et de la réception chez l’auditeur. Il énonce différentes conditions :

– La possibilité de la part d’un spectateur ou d’un auditeur de voir ou d’écouter, sans obstacle apparent ;
– L’espace audiovisuel doit être en adéquation avec les sources sonores et audiovisuelles, sans déformation aucune ;
– La nature de l’espace, donc sa morphologie tridimensionnelle, géométrique et architecturale, doit tendre à la meilleure relation entre les sources sonores et les spectateurs ;
– Les dispositifs électroniques, voire plus récemment numériques, peuvent aider à la réception sources-spectateurs (système d’amplification, système de vidéoprojecteur, possibilités d’utiliser plusieurs écrans…) ;
– Bien sûr, comme Xenakis le remarque fort bien, il « n’existe pas une solution unique », bien au contraire, si l’on souhaite trouver la meilleure formule de relation entre sources et spectateurs, il faudrait créer « plus de types d’enveloppes, de réceptacle reliés entre eux de manière adéquate ».

Il se dégage de ces réflexions l’enjeu même d’« habiter » le lieu d’écoute de manière spécifique, sans tomber dans le piège d’un espace qui réduit les sons à des entités « lisses », ou sans perspective acoustique. Il n’existe pas, bien sûr, de système de spatialisation parfait du son. Mais le compositeur peut concevoir des directions sonores, des convergences, des contrepoints, des réverbérations… à sa guise, lorsqu’il étudie minutieusement l’espace où va se développer sa musique, et pourquoi pas, comme Xenakis, concevoir lui-même des espaces audiovisuels (cf. les fameux diatope et polytopes) et ainsi éviter le piège des contraintes temporelles et spatiales. Il va de soi qu’une telle étude scénographique ne peut se faire qu’en amont avec, vraisemblablement, beaucoup de minutie (1) .
L’hypothèse de recherche de Xenakis est confrontée aussi aux « relations spatio-temporelles ». Cela revient encore à provoquer un fonctionnement différent de l’entité sonore et de son environnement d’écoute. Xenakis distingue six groupes de relations spatio-temporelles :

– Organisation frontale : Les sources audiovisuelles sont placées devant le public ; ce qui correspond à la plupart des concerts symphoniques, des spectacles pyrotechniques ou simplement de mise en scène théâtrale, vidéographique ou cinématographique ;
– Organisation circulaire 1 : Les sources audiovisuelles sont placées au centre, et le public à la circonférence, ce qui permet déjà une relation d’environnement plus complexe. C’est le type même du kiosque à musique, du stade, de théâtre, ou d’une scène de cirque… ;
– Organisation circulaire 2 – triangulaire – carré – rectangulaire ;
– Organisation aléatoire ;
– Organisation linéaire ;
– Organisation globale qui prend en compte les cinq possibilités précédemment citées. François Bayle est ainsi à l’origine du mode de diffusion des sources acoustiques dites « acousmatique ». Il s’agit d’une orchestration des sources sonores par une combinaison de projecteurs de sons, qui ont, pour effet, de spatialiser le son, de manière globale.

Ensuite, Iannis Xenakis définit « la nature des sources » et en précise trois types, celles qui sont immédiates – des personnes qui parlent, un bruit quelconque lors du concert… ce sont des sources non provoquées, facteur qui peut être mis en valeur –, celles qui sont médiates et utilisent ces sources sonores ci-dessus énumérées de manière déterminée et, enfin, la dernière nature des sources est déclenchée par « des machines ou des appareils mécaniques, électroniques, etc. ». À cet espace sonore s’ajoute le travail sur l’espace acoustique. Cet espace ne fait plus appel à une configuration spatiale, donc à l’espace physique lui-même déjà constitué, mais renvoie à une spatialisation physique de l’œuvre, c’est-à-dire, dans l’utilisation des ressources acoustiques et électroniques, aux effets de profondeur, d’ubiquité et de mobilité des sons et des images. Désormais, «  la possibilité de gérer un temps réel divers indices acoustiques […] permet d’envisager de nouveaux rapports entre le compositeur et l’interprète et l’acoustique. En particulier, la disponibilité de moyens technologiques de spatialisation du son dotés d’un formalisme de manipulation adapté à la perception […]. … le compositeur peut intégrer dès le stade de la composition les paramètres acoustiques et les élever à un rang musical. […] L’évolution rapide et la complexité croissante des matériels imposent une réflexion visant à proposer des interfaces de manipulation basées sur des formalismes pertinents pour la perception », c’est-à-dire une fusion des deux perceptions auditive et sonore, et « la tendance à l’imbrication des données visuelles et auditives dans les futurs dispositifs de diffusion, qui devrait inciter la pratique à l’exploration des relations entre ces deux champs perceptifs. »(2)
Finalement, cet espace multiphonique, par sa nature réelle, concourre à révéler, lors de l’écoute, l’existence d’une dimension spatiale des sons. Costin Miereanu définit deux types de multiphonie :

– soit une multiphonie statique des sources sonores dans l’espace, malgré la pluralité de points sonores ;
– soit une multiphonie dynamique, où le déplacement des sons obéissent à des figures géométriques que Stockhausen nomme des kontinuiertliche Tonort-Veränderungen im Kreis (des « déplacements continus et circulaires du lieu du son ») (3) .

Il s’agit finalement d’une forme de théâtralisation de la musique, à travers l’œuvre de Roland Auzet, et d’afficher la prééminence d’un cirque musical. Il faut, pour répondre à cette exigence, faire converger la spatialisation du son et la temporalité de l’image, et produire une relation adéquate entre les comédiens et la machine.
L’expérience de l’espace sonore repose sur des phénomènes de nature synesthésique, dont l’approche expérimentale de Noël Château (4)  révèle son potentiel. Cet espace sonore possède une réalité psycho-acoustique qu’il faut prendre en compte, une existence dans la conscience du musicien et une perception dans notre propre environnement, en tant que spectateur ou auditeur d’un événement en pleine mutation. C’est là que se joue la temporalité, dont la définition est empruntée à Costin Miereanu :

« Tout aussi révélateur est le fait que, dans une optique polyartistique du faire musical, nous pouvons manier des objets clôturés, finis qui, cependant, de par la nature plurielle du contexte où ils fonctionnent (où ils seront « lus »), ne seront plus perçus comme tels : dans une vision dynamique, à l’image du concept de dérive de Lyotard, ces objets clôturés deviendront des matériaux convergents afin de configurer une situation polyartistique. »(5)

Il n’y a plus d’espace clos, mais la mise en jeu d’une mutation du matériau sonore, dans des conditions spécifiques. Les interactions entre le son et l’image sont complexes et variées, et dépendent assurément de situations sonores et visuelles précises. Noël Chateau définit trois types d’interactions : interactions basiques, interactions son-image en contextes semi-réalistes et interactions son-image dans le cadre de la perception de la parole.

– interactions basiques : On peut trouver deux types de mesure, le « biais » immédiat et le « biais » a posteriori. Dans le premier cas, il s’agit de qualifier une présentation audiovisuelle, sous des conditions de discordance spatiale et temporelle. Dans le second cas, l’attention est portée, toujours en situation audiovisuelle, avec des lunettes prismatiques, par des flashes de lumière et par de pulsations sonores provenant du même endroit, sur une écoute et sur une visualisation biaisée. La vision fausse l’audition, si nous déplaçons de quelques degrés le faisceau de lumière, tandis que l’audition ne fausse nullement l’effet visuel. En même temps, le rythme est capital dans l’intégration basique, puisque le changement des faisceaux lumineux a, pour effet, de rediriger le son vers la source lumineuse. On comprend bien, par conséquent, que le degré d’interaction son/image est lié au degré de signification entre les stimuli auditifs et les stimuli visuels. L’audition est toujours subordonnée à la vision(6).

 – interactions son-image en contextes semi-réalistes : Il faut songer à l’influence de la vision sur la localisation de l’audition et prendre en compte l’information visuelle et l’information sonore. En d’autres termes, par des expériences menées par Witkin en 1952, on sait désormais que la présence d’une entité visuelle couplée avec une entité sonore permet d’attirer le son vers l’image, d’où la prégnance bien connue au cinéma. En même temps, comme N. Chateau le souligne, « il est physiquement impossible que le son émis par une source visible parvienne plus tôt à l’observateur que l’image de cette même source. »(7) Il s’agit donc d’une asynchronie, qui ne peut se résoudre qu’avec une cohérence, c’est-à-dire avec une fusion perceptuelle, ce qui va augmenter grandement la tolérance de situations conflictuelles dans l’espace.

– interactions son-image dans le cadre de la perception de la parole : L’effet Mc Gurk a eu, pour condition première, de montrer que la perception de la parole ne peut pas seulement être améliorée par la présence de l’image, mais peut être aussi « transformée ». Ici, ce n’est ni l’asynchonisme ni le synchronisme qui opèrent, mais la fusion de deux stimuli en un troisième non présent.

Il apparaît ainsi, pour les interactions son/image, où la conceptualisation n’est pas « une grandeur perceptive mesurée » – qu’il « existe un effet asymétrique de l’asynchronie son/image(8) ». Dans un contexte multi-mediatique, nous sommes de plus en plus confrontés à des relations de décalage entre son et image et à des informations multimodales. Il faut désormais prendre en compte la création et la manipulation homme/machine, pour comprendre la perception définitive des acteurs du dispositif mis en jeu, ainsi que la réception du spectateur, face à et/ou englobé dans de tels dispositifs.
Le régime du son a totalement changé dans le domaine tout entier de la composition musicale, grâce aux recherches menées sur la musique électro-acoustique: l’enregistrement du son sur support permet aussi de fixer l’espace dans lequel le son a été enregistré. À partir de là, il fut possible de comprendre les différentes propriétés de propagation du son dans l’espace. Les compositeurs sont alors passés à la manipulation de l’espace lui-même. Aujourd’hui, on peut tout aussi bien simuler des espaces ou des synthèses d’espace par ordinateur, ce qui conduit à différentes variations de création et de diffusion. On peut encore « spatialiser » les sons en direct et en fonction de l’auditeur, comme on peut manipuler en direct un personnage virtuel, comme c’est le cas d’Oscar créé par Catherine Ikam et Louis Fléry.
L’acoustique et la psycho-acoustique prennent en effet en compte les enjeux d’un espace sonore qui repose sur un émetteur sonore (les projecteurs de sons), un récepteur et un lieu donnés. Cela implique des notions simples comme la position, la grandeur, le mouvement des sons, comme celle de la distance (proche ou lointain), la direction (sons provenant de la gauche ou de la droite, émergence sonore horizontale ou verticale). Le milieu de propagation suppose une grandeur, des formes, un intérieur et un extérieur, tandis que les caractéristiques de l’émetteur rendent aussi compte de la grandeur et des formes de sons émis. Ici nous avons affaire à des données fixes. Lors d’une dimension plus dynamique, il est possible de déplacer les sources sonores, grâce à un effet panoramique à la console ou grâce à un effet Doppler (changement léger de fréquence lié aux mouvements des sources), ou bien, encore, à une modification de l’acoustique et des dimensions du lieu, si bien que ce dernier est déterminant dans la construction des effets sonores. La notion de « lien des lieux » du compositeur François Bayle est donc bien essentielle dans la constitution d’un espace acoustique ou acousmatique.
Dans un article, datant de 1993, et intitulé « L’Espace (post-scriptum)…) (9), François Bayle définit des éléments fort importants, afin de considérer l’approche du son par le travail de l’espace sonore. Notre propos n’est pas servir ce texte, mais de le renverser, afin d’entrer dans ce que le titre de mon intervention indique, c’est-à-dire le son des images. Si de l’image, travaillée à partir d’un rayonnement (de la lumière, comme celui d’un projecteur ou d’un écran cathodique), revient aussi à répandre, ce que Bayle nomme des « vibrations composées », vibrations non pas générées par le son, mais par l’image elle-même. Tout un monde est en rayonnement, que ce soit pour le son ou l’image. Finalement, plus nous travaillons dans un réseau d’images, comme la vidéo le démontre, plus nous composons des effets de sons qu’il faut analyser d’une manière plus conséquente, pour ainsi dire trouver sa virtualité, sa fluctuation même et son décrochage par rapport à l’image. Bayle formule cela d’une manière singulière : il s’agit d’« une matière dynamique qui crée son espace et son temps. » Il entend par ces « images », des images « virtuelles », c’est-à-dire un son émis par un projecteur de sons, comme la vidéo qui se fait grâce à un projecteur d’images :

« L’image se distingue donc des objets naturels, mais elle n’est à confondre avec une virtualité qui ne serait pas du ressort de l’expérience : l’image est un objet, un nouvel objet. […] l’acousmatique serait une musique pour aveugles : il est vrai que l’on n’y voit pas les causes du son, mais ce n’est pas pour autant qu’il n’y a rien à voir… Les sons donc « se projettent » : je les appelle i-sons (pour images-de-sons) […] Le haut-parleur n’est pas un instrument, c’est un projecteur d’image, un propulseur de contours qui communique avec un programme et sa mémoire. »

L’i-son est ainsi, selon François Bayle, reprenant les termes de Charles S. Pierce, « soit figuration iconique, soit allusion défective (tronquée, indicielle), soit encore symbole sans adhérence mnémotechnique ». Nous comprenons bien, dès lors, que le son, en tant qu’indice, se détache de sa source et ainsi devient autonome. Mais, pour que cette indépendance soit validée, il faut que ce dernier soit diffusé dans un espace, parce que, et Bayle a parfaitement raison, les images et les images-de-son existent toujours dans un espace. Le son circule dans un environnement, et le lieu de son écoute est encore une réponse adéquate, et surtout, se diffuse avec « une légère aura » (Bayle). Ainsi, l’espace devient le lieu du son. Ce que nous entendons alors par « décrochage », c’est le travail de l’image (et les images du son ou alors les sons de l’image) qui se fait dans le temps, ce que Bayle nomme cet espace acousmatique le « lien des lieux ». « Le lien des lieux » provient du premier cinéma (celui du temps de Georges Méliès), où les cinéastes pratiquaient la surimpression, en activant la manivelle en arrière, tout en filmant le réel. Bayle y voit ici le même travail, mais au niveau du son. Pour arriver à cette solution, le compositeur met en jeu, en 1974, ce qu’il nomme l’« acousmonium », en couplant deux projecteurs de son, très proches l’un de l’autre, dans une structure en arche. L’acousmatique se voit, puisque les haut-parleurs sont visibles et, par là même, deviennent des images-de-son. Il en va de même, lorsque l’image génère elle-même des effets sonores, lorsque le son structure l’image. Peut-être, est-ce « entrer et sortir » de la musique et dans le travail de l’image numérique, pour obtenir une plus grande liberté de conception et d’exécution ? Tout comme le spectateur peut lire l’image en toute liberté, le son se superpose et invente son propre langage. Les deux sens – audition et vision – sont ainsi libérés de toute contrainte et évoluent soit en parallèle, soit en juxtaposition, soit parfois en déphasage.
Le musicien et l’architecte du dispositif plastique et scénique déplacent les codes conventionnels qui permettent une prégnance dans le travail sonore, et utilise des composants moléculaires qui, filtrés par l’électronique, deviennent une matière molaire ou macroscopique inconnue à l’oreille humaine. Cette appréhension sonore provoque dès lors un regain d’intérêt pour l’espace généré par ce jeu subtil qui se trouve régulièrement décentrée, délocalisée et énigmatique. Peter Szendy nomme ces dimensions des actes d’une dislocation(10) pour faire, si cela est possible, advenir des sons-I (des sons des images).

À cela s’ajoutent les notions de hauteur, d’intensité, de temps qui sont formalisables par le musicien, car ces trois critères peuvent être associées à des paramètres physiques à une seule dimension. Il reste le timbre, paramètre à trois dimensions, beaucoup plus complexe, puisqu’il met en jeu la fréquence, l’intensité et le temps. Dans ce contexte, il est possible de « simuler » des espaces sonores. Ici, même si nous approchons des caractéristiques relevant du travail sonore, il est encore possible d’admettre des propriétés identiques lors de la mise en jeu d’un espace visuel, électronique ou numérique. C’est par l’apport de bandes vidéographiques ou l’appareil numériques, et par des traitements « multi-visuel » et « multi-sonore », en direct ou en différé (espaces virtuels et écrans multiples, modélisation et mixages des images entre elles, mise en résonance interne des images  avec des effets de rythme, jeu de couleurs, etc.), que les effets suivants peuvent être provoqués :

– la « synthèse » ou la « simulation » d’un espace par des moyens électroniques ou numériques, pour obtenir des effets sonores, des réverbérations, des simulations d’espaces qui œuvrent sur l’espace interne du son. Il en est de même pour le travail de l’image ;
– la « projection » d’une œuvre stéréophonique sur des projecteurs de son, en associant un orchestre traditionnel et une projection vidéo, par exemple ;
– le travail de la « multiphonie » des pistes lors du travail de la composition ;
– l’usage d’œuvres « mixtes », interactives ou électroniques en direct ;
– enfin, l’utilisation de nouveaux instruments (capteurs, instruments virtuels ou autres dispositifs, permettant un travail en direct sur scène).

Nous obtenons dans le principe de la projection des sons (entrées stéréophoniques et potentiomètres de sortie) le réglage individuel de l’amplitude (intensité) de chaque haut-parleur, ce qui permet des nuances subtiles dans les effets de spatialisation et des variations de timbre, selon la spécificité des haut-parleurs.

© Olivier Lussac

(1) Cf. le dvd Xenakis. Electronic Music 1. La Légende d’Eer, New York, Mode Records, Mode 148, 2005.
(2) Jean-Pascal Jullien et Olivier Warusfel, intitulé « Technologies et perception auditive de l’espace », revue Les Cahiers de l’Ircam-Recherche et musique, n° 5 intitulé « Espaces », 1er trimestre 1994, p. 93-94.
(3) Costin Mieranu, Fuite et conquête du champ musical, Paris, Méridiens Klincksieck, 1995, p. 40.
(4) Noël Chateau, « Les Interactions sensorielles entre le son et l’image lors de la perception d’événements audiovisuels », actes du colloque Musique et arts plastiques, Rencontres Musicales Pluridisciplinaires 1998, Musiques en scène 1998, Musée d’Art Contemporain de Lyon, Grame, édités par Hugues Genevois et Yan Orlarey, 1998.
(5) Costin Mieranu, op. cit., p. 152.
(6) Cf. Antonio Fischetti, « Perception auditive et visuelle : implications esthétiques », actes du colloque Musique et arts plastiques, Rencontres Musicales Pluridisciplinaires 1998, Musiques en scène 1998, Musée d’Art Contemporain de Lyon, Grame, édités par Hugues Genevois et Yan Orlarey, 1998, p. 33-36.
(7) Noël Chateau, art. cit, ibid., p. 17.
(8) Noël Chateau, art. cit, ibid., p. 25.
(9) François Bayle, « L’espace (post-scriptum) », Les Cahiers de l’IRCAM, n° 5, consacré à « L’Espace », Paris, Ircam-Centre George Pompidou, 1994, p. 115-120. (Texte issue d’un entretien réalisé au GRM le 23 novembre 1993). Texte issu d’un entretien réalisé au GRM le 23 novembre 1993.
(10) Peter Szendy, « Actes d’une dislocation », Les Cahiers de l’IRCAM, n° 5, consacré à « L’Espace », Paris, Ircam-Centre George Pompidou, 1994, p. 59.

Publié dans Textes-Définitions

Pour être informé des derniers articles, inscrivez vous :

Commenter cet article