Le Son des images

Publié le par Olivier Lussac


1. Introduction

EXEMPLE 1 : CHANT DES ESPRITS SUR LES EAUX-MICHEL CHION

Peut-on cerner ce que Michel Chion nomme l’« espace externe », mais en rendant compte, aussi, des implications, non pas de l’« espace interne » de la musique, mais de sa perception psychosensorielle dans un support d’image ?

 Peut-être, est-ce, comme le suppose le compositeur Emmanuel Nunes, « sortir et entrer » dans la musique, ou du moins, ici, dans le travail sonore de la vidéo, pour obtenir une plus grande liberté de conception et d’exécution ?

Dans un article, datant de 1993, et intitulé « L’Espace (post-scriptum)…)1, François Bayle définit des éléments fort importants, afin de considérer l’approche du son par le travail de l’espace sonore. Ici, nous considérerons la question du son. Comme Michel Chion, François Bayle fait partie des élèves de Pierre Schaefer et fut longtemps le directeur du GRM (Groupe de recherche musicale). Mon propos n’est pas servir ce texte, mais de le renverser, afin d’entrer dans ce que le titre de mon intervention indique, c’est-à-dire le son des images. Si de l’image, travaillée à partir d’un rayonnement (de la lumière, comme celui d’un projecteur ou d’un écran cathodique, revient aussi à répandre, ce qu’il Bayle nomme des « vibrations composées », vibrations non pas générées par le son, mais par l’image elle-même. Tout un monde en rayonnement, que ce soit pour le son ou l’image. Finalement, plus nous travaillons dans un réseau d’images, comme la vidéo le démontre, plus nous composons des effets de sons qu’il faut analyser d’une manière plus conséquente, pour ainsi dire trouver sa virtualité, sa fluctuation même, son décrochage par rapport à l’image, ce que Bayle formule de la manière singulière : il s’agit d’« une matière dynamique qui crée son espace et son temps. »

EXEMPLE 2 : CIRCUMNAVIGATION (LISBONNE) DE N + N CORSINO

François Bayle entend par ces « images », des images « virtuelles », c’est-à-dire un son émis par un projecteur de sons, comme la vidéo qui se fait grâce à un projecteur d’images :
« L’image se distingue donc des objets naturels, mais elle n’est à confondre avec une virtualité qui ne serait pas du ressort de l’expérience : l’image est un objet, un nouvel objet. […] l’acousmatique serait une musique pour aveugles : il est vrai que l’on n’y voit pas les causes du son, mais ce n’est pas pour autant qu’il n’y a rien à voir… Les sons donc « se projettent » : je les appelle i-sons (pour images-de-sons) […] Le haut-parleur n’est pas un instrument, c’est un projecteur d’image, un propulseur de contours qui communique avec un programme et sa mémoire. »
C’est bel et bien la caractéristique principale des ultra-instruments ou des ultra-médias qui sont des réceptacles vides et dont leur capacité est d’être une mémoire qui se vide et se remplit par intermittence. Bref, nous assistons à des récipients d’air, comme les définit Roberto Barbanti :
« …ce phénomène technique […] se manifeste dans une sorte d’excès parce qu’il a tendance à se dissoudre dans presque chaque manifestation et détermination sociale et naturelle. En effet, tout se passe de telle manière que ce phénomène technique se constitue et se donne au-delà (ultra) de toute forme de détection humaine dans un excès (ultra) de pénétration et de diffusion physique et « méta-physique ».
« La question de la mémoire acoustique technique se place, s’édifie et se définit dans ce contexte. Elle en est une exemplification et un modèle particulièrement explicite et significatif. C’est pourquoi, on peut parler, en ce qui concerne ces media de stockage des sons, d’ultra-instrument.
« Le phonographe, le disque, le magnétophone, l’ordinateur (mais cela est valable aussi pour le daguerréotype, la radio, la télévision, la caméra vidéo ou internet) ne sont pas des instruments. Ils sont des ultra-instruments, en ce sens qu’ils n’ont plus aucune spécificité propre et qu’ils ont tendance à se répandre partout. Bref : au-delà de toute identité dans un excès de généralisation. […]
« En effet, ces “moyens”, ces media, sont des conteneurs vides qui véhiculent tout et rien dans une sorte d’ouverture et d’indétermination substantielle et c’est justement à cause de cela qu’ils peuvent se généraliser et se disséminer partout. »

2. Les I-son
L’i-son est ainsi, selon François Bayle, reprenant les termes de Charles S. Pierce, « soit figuration iconique, soit allusion défective (tronquée, indicielle), soit encore symbole sans adhérence mnémotechnique ». Nous comprenons bien, dès lors, que le son, en tant qu’indice, se détache de sa source et ainsi devient autonome. Mais, pour que cette indépendance soit validée, il faut que ce dernier soit diffusé dans un espace, parce que, et Bayle a parfaitement raison, les images et les images-de-son existent toujours dans un espace. Le son circule dans un environnement, et le lieu de son écoute est encore une réponse adéquate, et surtout, se diffuse avec « une légère aura » (Bayle). Ainsi, l’espace devient le lieu du son.

EXEMPLE 3 JUSTE LE TEMPS-ROBERT CAHEN

Ce que nous entendons alors par « décrochage », c’est le travail de l’image (et les images du son ou alors les sons de l’image) qui se fait dans le temps, ce que Bayle nomme cet espace acousmatique le « lien des lieux ». Car, contrairement au cinéma, où le vide sonore fait horreur (et à l’exception du cinéma expérimental qui conçoit le film à partir de la seule image, sans le son, chez Stan Brakhage par exemple), l’espace sonore, l’image vidéographique et l’espace des installations sonores et visuelles se présentent principalement comme une matière sonore, outre le fait qu’encore l’image travaille probablement notre imaginaire, elle est  aussi, sans aucun doute un art du son. « Le lien des lieux » provient du premier cinéma (celui du temps de Georges Méliès), où les cinéastes pratiquaient la surimpression, en activant la manivelle en arrière, tout en filmant le réel. Bayle y voit ici le même travail, mais au niveau du son. Pour arriver à cette solution, le compositeur met en jeu, en 1974, ce qu’il nomme l’« acousmonium », en couplant deux projecteurs de son très proches l’un de l’autre, dans une structure en arche. L’acousmatique se voit, puisque les haut-parleurs sont visibles et, par là-même les images-de-son. Nous entrons de ce fait même dans une nouvelle organisation des sons, celle de la radiophonie, dont les multiples aspects ne peuvent ici être développés.

3. Les sons-I
Goethe soulignait la possibilité d’association de la vue et de l’audition : « La couleur et le son ne peuvent être comparés en aucune façon, mais ils peuvent l’un et l’autre être référés à un principe supérieur et être dérivés, bien que séparément, de celui-ci. (nous soulignons) […] Ils représentent l’un et l’autre des effets généraux élémentaires agissant selon la loi générale de la séparation, de la tendance à l’union et de l’oscillation sur les différents milieux intermédiaires et atteignant des sens différents. » La différence du voir et de l’entendre, comme modes de communication, n’est pas absolue, puisque, comme le remarque encore Goethe « …l’aveugle, auquel l’infini du visible est refusé, peut encore saisir une vitalité infinie dans l’audible » ; aussi l’espace, l’éloignement, la distance ne sont-ils pas perçus par les différents sens comme des données constantes en aucune façon, mais ils peuvent l’un et l’autre être référés à un principe supérieur et être dérivés, bien que séparément, de celui-ci. (nous soulignons) […] Ils représentent l’un et l’autre des effets généraux élémentaires agissant selon la loi générale de la séparation, de la tendance à l’union et de l’oscillation sur les différents milieux intermédiaires et atteignant des sens différents. » La différence du voir et de l’entendre, comme modes de communication, n’est pas absolue, puisque, comme le remarque encore Goethe « …l’aveugle, auquel l’infini du visible est refusé, peut encore saisir une vitalité infinie dans l’audible » ; aussi l’espace, l’éloignement, la distance ne sont-ils pas perçus par les différents sens comme des données constantes. « À chaque sens, écrit Erwin Straus dans son livre intitulé Du sens des sens, correspond une forme particulière de spatialité. » Contrairement à la couleur qui est toujours délimitée, divisant l’espace en parties, le son possède une existence autonome, il vient vers soi et traverse le sujet percevant : « Alors que le son nous envahit en s’approchant de nous, la couleur demeure à sa place, elle exige du sujet qui la perçoit qu’il se déplace vers elle, qu’il la regarde, qu’il se saisisse d’elle activement. » Ici se manifeste l’expérience de la perception auditive et visuelle qui est vécue à travers ce que Straus nomme le sentir (c’est-à-dire ce rapport entre un sujet percevant – je – et le monde qui l’entoure).
Les expériences menées par Antoine Fischetti, à l’École Louis Lumière,  soulignent aussi le caractère prééminent des sources visuelles sur les sources sonores, parce que les données visuelles sont mieux déterminées que les données auditives. Lorsque, par exemple, une image et un son apparaissent à deux endroits différents, la vision semble être privilégiée par rapport à de l’audition, ou « capturée » dans l’espace de l’image (ce que Bertelson et Radeau appelle la « capture visuelle » ou l’« effet ventriloque », dans le cas, par exemple d’installation vidéo. Les sons semblent provenir de la bouche des personnages, animés sur l’écran, alors qu’en réalité, il s’agit de haut-parleurs situés à des endroits précis par les artistes. 
Le système de perception humain possède une première caractéristique fondamentale, le fait d’être non-linéaire. En effet, la perception audiovisuelle n’est pas une simple combinaison linéaire entre un son et une couleur, c’est-à-dire une perception simultanée du son et de l’image. Nous avions précédemment souligné l’effet McGurk, démontrant que la « vitesse » de perception d’une image et d’un son n’était pas identique, le son étant perçu plus tardivement qu’une image située dans un espace donné. Cette obsevation est importante, lorsqu’on veut étudier, dans la physiologie du cerveau, les percepts « audio » et « visuel ». Il existe bien des interactions sensorielles, qui trouvent leur fondement dans certaines cellules du cerveau (cf. les travaux de Meredith et Stein, sur les cellules des aires corticales primaires, spécifiques au traitement des signaux sensoriels [auditif, visuel, tactile […] ; également, sur certaines cellules secondaires qui répondent aussi bien à des stimuli acoustiques ou lumineux). Ce dernier type de cellules est mises en jeu, quand il y a concordance spatiale et temporelle et, sur le plan physiologique, elles participent à une intégration sensorielle ou à une fusion perceptuelle. Elles sont donc essentielles dans les travaux artistiques énoncés dans cet essai et leurs implications sur le plan synesthésique, parce qu’elles œuvrent dans une combinaison audiovisuelle synchrone, c’est-à-dire dans une occurence d’un son et d’un mouvement lumineux visible en simultanéité de seuils et/ou de rythme interne entraînant chez le spectateur, l’établissement d’un lien de synchronisme subjectif).

EXEMPLE 4 GRAMSCIATEGUI OU LES POESIMISTES-GIANNI TOTI

C’est en effet le son synchrone qui a obligé le cinéma à fixer et à stabiliser de manière irréversible à 24 images/seconde la vitesse d’enregistrement et de défilement des images,alors qu’on pouvait, dans le cinéma muet, jouer en vitesse variable, entre 16 et 20 images environ, c’est de cette idée qui perdure dans les films muets où on parle en mètres et non en heures. Dans le film parlant, c’est sans aucun doute la musique qui donne la possibilité d’arrêter, de dilater et de contracter le temps ; elle est employée pour échapper à la loi de successivité trop absolue des moments, pour admettre une « temporalité multiple et flexible », donc offrir un recul par rapport à la contrainte du temps réel. Ce qu’il faut également noter c’est que non seulement la musique est comme « l’instance narrative qui va redonner au temps du film une certaine élasticité, une stylisation », mais aussi le son synchrone pose constamment la question du réalisme, ce que Jean-Louis Comolli a nommé « le perfectionnement de l’impression de réalité », c’est-à-dire donner le son en temps réel (posant ainsi le problème du doublage, du bruitage, du mélange des sons et du son direct et vrai du tournage). Seuls peut-être le cinéma expérimental (dans toute sa diversité) ainsi que la vidéo et les nouveau systèmes audiovisuels, dont la vidéo, peuvent perpétuer l’idée d’un jeu animé, sans poser la question du réalisme ni celle de linéarisation narrative.
Mais , si le cinéma est un standard (conçu ainsi à des fins narratives), le film est alors produit par une parole. Ce qui n’est pas le cas de la vidéo. Nous voulons dire par ce biais que le film est bâti comme un langage verbal, et produit du sens et de la cohérence. Les éléments filmiques remplissent les mêmes fonctions que le langage parlé, il se pose en communiquant et, en osant une hypothèse, un peu comme la musique classique qui se pose également comme le produit de sons prédéterminés. Le cinéma donne un statut de signe aux sons utilisés. Il n’est donc pas étonnant qu’on « meuble » les images par une musique adéquate, n’ayant qu’une seule et vraie fonction, celle de rendre discrète la matière sonore. Elle n’est donc plus qu’un accompagnement dramatique. L’exemple du bruiteur est ici fondamental, parce que, contrairement au son réel, au son de la vie quotidienne et même pour des sons enregistrés, il les recrée de toutes pièces, afin de donner l’« illusion » de la réalité, même si aujourd’hui les effets sonores sont traités de manière électronique ou numérique. Ce « faiseur » de son utilise un échantillonneur et, en voyant telle ou telle image, il rend les sons plus identifiables par amplification et trucage du son original. Aussi, la bande-son ne joue-t-elle pas le rôle d’une forme de partition, où chaque son est isolé comme des notes dans le solfège classique. Tous les bruits sont donc ancrés dans l’image et ne peuvent en être dissociés. En reconstituant exactement le son, le bruiteur caractérise artificiellement chaque type de son, en lui associant un timbre spécifique, il devient dès lors que ce nomme les linguistes nomment « un trait pertinent ». Sans les ancrages dus au son, le film s’éparpille dans de nombreuses directions divergentes. Inversement, nous pouvons jouer sur l’expérience contraire : la suppression de l’image et l’écoute de la bande-son pour elle-même, mettent en évidence l’extrême densité du son. Dans un film, nous trouvons toujours quelque chose à entendre ; des frottements des pas, de la musique et surtout du bavardage, des dialogues, toujours des dialogues et des bavardages… Le son est-il donc essentiellement un signe qui est utilisé pour son pouvoir d’information ? Comme nous l’avions souligné précédemment, le son n’est pas une information. La conséquence d’un tel développement du son-signe est d’éviter toute erreur d’interprétation, le son est alors soit signifié, soit dénoté, soit connoté, mais n’ont aucune valeur en tant que sons-intensités, fabriquant de sa propre autonomie. On nie ici sa force esthétique, son impact énergétique.
C’est bel et bien une syntaxe avec des règles et des exceptions que les compositeurs, mais aussi les vidéastes, ont cherché à dépasser, niant toute intrusion d’un son-intensité ou d’une combinatoire de son séparée du jeu de l’image.  Bien sûr, s’il y a trop de sons, c’est l’ennui, l’assoupissement dû au bavardage ; aussi, au contraire, s’il n’y a pas assez de sons, le sens vient à manquer et augmente la dérive. Il s’est ainsi constitué par l’usage, tant entre les sons eux-mêmes qu’entre les sons et les images, ce que les linguistes nomment encore des rections, bref le sonographique doit impérativement rejoindre le fantasme du cinéma. Il demeure strictement descriptif et figural.
Or la relation, comme signification, désignation et connotation, peut être débordée, lorsque le son est devenu réel, dépassant sans cesse le discours que produisent les images et déréglant un régime diégétique bien organisé. L’espace sonore et l’espace de la vidéo est dans ce cas fort utile à la compréhension d’un déphasage, à la fois autant dans les termes psychophysiques, le phénomène de déphasage bi-aural que dans celui purement musical. Ils ne relèvent cependant pas du terme domaine d’appréhension. La contrainte d’une telle écoute est de « noyer » le spectateur dans un récit, dont il perd très vite les repères de compréhension. Il n’est plus face à un son-signe, mais devient un son-intensité, en occultant les possibilités de sens ou d’ancrage, pour mieux bousculer l’information et la perception du spectateur . Celui qui travaille le son n’est donc plus un « faiseur magicien », pour qui tous les bruits sont une forme de machinerie, mais fait preuve de poète inscrivant le destin du son indépendamment de l’image projetée : le son garde sa flexibilité et son écoute dépend de la localisation de celui qui écoute. Toutefois, les projecteurs de son (comme les projecteur d’images) construisent pour eux-mêmes un espace de l’écoute attentionnelle qu’il faut programmer.

4. Conclusion
Tout comme le spectateur peut lire l’image en toute liberté, le son se superpose et invente son propre langage. Les deux sens – audition et vision – sont ainsi libérés de toute contrainte et évoluent soit en parallèle, soit en juxtaposition, soit encore en décalage.
Le musicien et architecte de la vidéo  déplace les codes conventionnels qui permettent une prégnance dans le travail sonore, et utilise des composants moléculaires qui, filtrés par l’électronique, deviennent une matière molaire ou macroscopique inconnue à l’oreille humaine. Cette appréhension sonore provoque dès lors un regain d’intérêt pour l’espace généré par ce jeu subtil qui se trouve régulièrement décentrée, délocalisée et énigmatique. Peter Szendy nomme ces dimensions des actes d’une dislocation pour faire advenir des sons-I (des sons des images)
Ce sont ainsi les cas des projecteurs de son et d’image, pour lesquels il faut définir des parcours spécifiques  (E. Nunes) :
–    parcours autonome/libre d’après le nombre de points de jeu en eux-mêmes pour leurs trajectoires, en fonction d’un effet global, lequel agira comme un flux sonore et visuel.
– parcours fixes (c’est-à-dire répétitifs) dont le cheminement est dicté par l’ordre d’apparition ou de l’intervalle dans la distance des timbres (une vidéo peut-elle contenir un timbre non seulement lié au son mais aussi à l’image ?), en quelque sorte une poursuite du son et de l’image.
– Parcours dont la vitesse de déroulement vise à empêcher une audition ou une vision localisée, en obtenant des phénomènes relevant d’une modulation d’amplitude, ou encore des effets d’instrumentarium non analysable à l’écoute ou à la vision. On peut penser ici à Juste le temps de Robert Cahen.
– Différenciation des points de la spatialisation d’un son tenu ou d’une image fixe par le changement d’enveloppe de point à point (Corsino ?).

Dans tous les cas, comme le souligne Karlheinz Stockhausen, « La spatialisation croissante du son donnera à la musique toujours plus de relief. » Et peut-être à l’image aussi !

© Olivier Lussac
Montbelliard, 1er décembre 2005, exposition Vidéo/Station, sous la direction de Nicolas Thély, Festival Ars Numerica.

1. Texte issue d’un entretien réalisé au GRM le 23 novembre 1993.

 

Publié dans Textes-Arts

Pour être informé des derniers articles, inscrivez vous :

Commenter cet article