Mixage Fou

facebook twitter youtube contact

Accueil > français > concours de création sonore en 80 sec > Jean-Marc Duchenne

Jean-Marc Duchenne

Artiste sculpteur d’espace sonore

Lorsque Thierry Dilger m’a proposé de rassembler un document décrivant mon attitude et mon expérience dans le domaine de la composition sonore "spatiale", je pensais rédiger une petite page, et puis, peu à peu en écrivant, je me suis laissé emporter par le sujet...

Or donc.
Au début des années 80, j’écrivais des partitions pour des instruments.
Lorsque je me suis retrouvé en 1981, presque par accident, dans la classe de composition acousmatique du conservatoire de Lyon, j’ai été en quelques mois happé par le pouvoir des sons et l’immense plaisir que l’on peut avoir à fabriquer très concrètement un objet, qui était ici à la fois la bande magnétique avec ses multiples collants et l’œuvre qu’elle révélait lorsqu’on la lisait.
Le deuxième grand choc, qui a entériné ma "mutation", a été la diffusion de ces bandes réalisées dans le studio stéréophonique sur un ensemble de haut-parleur (un acousmonium) en situation de concert : l’objet précédemment composé ne collait plus avec cette nouvelle réalité, mais un monde qui était pour moi avant seulement rêvé devenait palpable et tangible, les sons prenaient ce qui m’apparaissait être leur vraie dimension, reléguant le travail préalable à un état de maquette.
Un peu plus tard, la pratique du jeu au synthétiseur avec le contrôle direct du son sur plusieurs enceintes me confirmait que la stéréophonie était parfaite... lorsqu’elle était écoutée en stéréophonie, et que si je souhaitais faire entendre d’autres espaces le mieux était de les fabriquer vraiment, je devais composer les sons dans l’air et pas seulement dans la boîte.

Depuis 1986, à part pour une série de vidéos à la fin des années 90, tout mon travail s’est effectué en multiphonie, avec la réalisation de grands ou de petits "objets sonores haut-parlants", en explorant les contraintes de formats liés à la diffusion en concert, ou, plus librement pour des installations, en intégrant aussi la dimension matérielle des enceintes, dans des configurations aussi variées que possible.


L’atelier 24 canaux à Lyon en 1996, on ne voit évidemment pas tout,
mais les points de projection n’étaient pas que sur la périphérie...


J’aime à dire que je me sens plus comme un sculpteur ou un architecte que comme un photographe ou un peintre (à moins que celui-ci ne place ses images ailleurs que sur des tableaux...).
Je n’ai jamais trouvé ma place dans la réalisation d’images qui s’inscrivent uniquement dans un (petit) cadre devant moi, surtout lorsque celui-ci est principalement peuplé de fantômes : je suis pour l’illusion, pas la simulation (ou alors comme une alternative technique, faute de mieux).
J’ai besoin de sentir l’épaisseur du son, pas seulement de l’imaginer. J’ai besoin de pouvoir lui tourner autour, de l’explorer de l’intérieur, de jouer avec ses formes autant que ses matières, tout cela au sens littéral, physique (c’est à dire corporel) du terme.
Pour moi il n’y a jamais reproduction mais toujours production, et si l’on définit souvent, à mon avis à tord, les "sons acoustiques" comme étant "réels" par opposition aux sons produits par des haut-parleurs (qu’y-a-t’il de plus réel dans le frottement d’une chaise sur du carrelage que dans la vibration d’une membrane en carton lorsqu’elle atteint mes oreilles ?), c’est peut-être parce que l’on a fait trop longtemps un usage exclusif de cette simulation stéréophonique et que l’on a fini par croire que l’image de relief entre deux enceintes représentait l’état "naturel" et ultime du son haut-parlant. Mais ajoutons un troisième canal, une troisième enceinte (surtout pas entre les deux autres !) et les objets sonores sortent aussitôt de leur statut d’image-simulation. Si nous jouons le jeu et n’essayons pas encore, un peu naïvement, de simplement reproduire l’image d’une pseudo réalité pré-existante, nous somme bien obligé de considérer cette nouvelle réalité des sons ainsi produits, de penser et de composer autrement.
C’est toute la différence qui existe entre la "réalité virtuelle" et les "virtualités réelles" que j’essaie de fabriquer depuis une trentaine d’années : des œuvres faites de sons qui existent par la combinaison de ces singularités que sont les enceintes.

Réaliser de telles choses nécessite évidemment des outils adaptés.
Le premier, c’est justement le dispositif d’écoute.
Même si ma première pièce réellement multiphonique a été réalisée avec seulement quatre enceintes pour huit canaux (Quatre études d’espace en 1988), ma règle intuitive a été depuis la recherche de la correspondance la plus efficace, la plus directe, entre le format spatial de la diffusion et l’écriture sonore. Je suis finalement en cela la "démarche concrète" décrite par Pierre Schaeffer dans les années 50, mais, si elle n’a plus rien de surprenant depuis longtemps, il semble qu’elle soit encore un peu difficile à appliquer à toutes les dimensions de la création sonore, à tous ses espaces.
En tout cas, j’ai rapidement trouvé que cette démarche apportait avec elle, au moins potentiellement, une diversité dans la conception et dans l’écriture du son, qui a souvent suscité et conditionné l’élaboration de mes projets, comme par exemple la série Acousma-Parc ou des installations comme Forêt fragile (2008, 64 canaux en îlots).
Pour moi, devoir définir l’emplacement et le nombre des enceintes ne constitue en effet pas une contrainte dont il faudrait s’affranchir, une technique qu’il convient d’oublier et d’occulter au profit d’un espace idéalisé et un peu abstrait, mais représente au contraire un choix artistique déterminant. Par ses particularités et ses manques, il définit le cadre où s’inscrit la composition, conduit l’imagination à en exploiter les différences, tout comme le choix d’écrire pour un piano, un quatuor à cordes ou un orchestre pouvait conduire, au delà des différences de timbres, à des musicalités contrastées.
La constitution des multiples dispositifs que j’ai rassemblés sous le nom "d’acousmobiles" représente en quelque sorte une matérialisation de cette approche, et c’est peut-être là où j’ai la sensation de pouvoir explorer vraiment les possibilités de la "composition dans l’espace", où je sais que les auditeurs pourront aussi profiter de leur mobilité pour encore mieux l’entendre.

Plus classiquement, mon atelier-studio s’est assemblé progressivement autour de la réalisation de pièces destinées au concert ou, plus généralement et pour reprendre la formule du cinéma, à la diffusion sous la forme de séances de projection sonore.
Il est passé par sauts successifs de 8 canaux à 12, puis à 16 répartis en "3D" (Formes et couleurs de la vie en 1993), puis 24, 32 jusqu’à 54 aujourd’hui, cette progression suivant également celle de mon écoute, de mes réflexions et de mes compétences !
D’ailleurs, même si aujourd’hui je ne suis pas sûr qu’il y ait un avantage à "commencer petit" (c’est bien-sûr plus économique, mais pas pour autant plus "facile" de composer en 9.1 qu’en 22.2), le passage tâtonnant par ces paliers de complexité m’a certainement aidé à construire ma manière de penser et de travailler. De toute façon, je n’avais pas le choix...

Mais finalement, pourquoi cette course (lente) à la multiplication des canaux, la présence quasi continue de l’élévation et cette valeur "finale" plutôt élevée ?
Pour l’élévation, c’est simple : après y avoir goûté au début des années 90, je n’ai plus pu m’en passer. Pour dire : je serais même presque prêt à me contenter de cinq canaux en concert si le centre se trouvait à la place de "la voie de dieu" ;-)
Et pour le nombre de canaux, je pense que c’est d’abord pour me débarrasser des fantômes, et puis aussi parce que c’est finalement plus facile...
Le 5.1 par exemple, que j’ai très peu pratiqué, constitue pour moi un format particulièrement ardu car il se trouve coincé, avec son grand écart avant/arrière, entre la possibilité de sortir vraiment de l’espace de représentation frontal, et la nécessité malgré tout de jouer avec ses fantômes pour remplacer et simuler des points de projection intermédiaires. À la place d’éventuels fantômes artistiques, je suis contraint à employer de bêtes fantômes techniques, qui, en plus, sont délicats à manipuler (et on ne peut rien placer en hauteur pour compenser !). Le 7.1, ça va déjà mieux, et en 13.1 je dis "ouf" (allez, même à partir de 9.1, car c’est vrai que si je peux maintenant me permettre de faire le difficile, un tel format permet déjà de faire des choses extraordinaires. Et il est aussi toujours possible de composer dans une résolution plus élevée que celle du système d’écoute).
Alors faire du flou, du vague ou de l’imprécis, oui, mais je veux que ce flou puisse être "dessiné", voulu, pas qu’il résulte simplement du manque de précision du dispositif (ou d’une technique de codage spatial...). Je veux pouvoir faire des grosses taches mais aussi des petits points, faire flotter des images mais aussi pouvoir les épingler.


L’atelier 54 canaux (52.2) à St-Étienne en 2015, compatible Cinéma 42, Cirque 52 et Dôme 43, le poste de travail étant
placé ici en position "cinéma".


Si je mets donc de côté les objets haut-parlants particuliers, ou certaines installations où le regroupement des haut-parleurs, leur nombre et leur disposition obéit à d’autres critères (pour faire rapide, il n’y a pas un groupe d’auditeurs tassés et immobiles au centre d’une salle, mais je parlerai de ça une autre fois...), il existe un rapport inversement proportionnel entre la stabilité spatiale, le degré de finesse possible de l’écriture, et le nombre et la répartition des canaux de projection/composition.
Avec une résolution spatiale suffisante dans les trois dimensions (et encore mieux avec une organisation spatiale multicouche), le réseau des points de projection peut supporter, selon les besoins, aussi bien les uns que les autres. Composer en multiphonie devient dans ce cas même encore plus simple qu’en stéréo car il n’y a presque plus de masquages involontaires : il suffit de placer, dessiner, modeler, agencer les sons-objets, les sons-images selon son bon plaisir, selon ce qu’on entend, sans pratiquement avoir à se préoccuper de la technique (j’exagère juste un tout petit peu ;-))
L’espace choisi devient la toile tridimensionnelle où le geste compositionnel est aussi libre que celui du peintre, et ne possède comme limites que celles de son auteur (aïe).
Pour revenir sur l’évolution de mon atelier-acousmonium, le nombre et l’implantation des enceintes a été également dicté par certains impératifs liés à la diffusion sous la forme de concerts, notamment la recherche, un peu illusoire, de formats qui puissent tenir lieu de standards, comme la pellicule 35 mm et l’écran ± 2:1 au cinéma.
Par exemple, au début des années 2000, le format spatial 17.1 qui est associé au format de fichier Wav de Microsoft (et repris un peu plus tard par Apple pour son format CAF) m’avait semblé constituer un bon prétendant. Il utilisait bien la hauteur (7 points), disposait d’une résolution spatiale équilibrée (malgré la légèreté des côtés) et il était compatible avec l’ensemble des formats surround du cinéma. J’ai donc modifié un peu l’agencement de mon studio et composé quelques pièces de cette manière, sans pour autant qu’il devienne un standard, ni en acousmatique, ni ailleurs.
En 2006, la NHK présente le 22.2, et comme il est basé sur le 17.1 il m’est facile et agréable d’en faire mon premier choix pour les pièces destinées aux séances publiques. Cette fois le format semble perdurer, mais hélas pas au cinéma (c’est une version très allégée qui le sera quelques années plus tard sous la forme Auro-3D) ni, évidemment, en acousmatique...
Mais je persiste tout de même dans cette direction qui offre au moins le mérite d’être reliée à une pratique largement répandue, et, parallèlement à d’autres dispositions (le Cirque 3D et le Dôme), j’ai continué à exploiter et à développer cette configuration Cinéma 3D, sur 32 puis sur 42 canaux.
Composer directement avec un nombre assez élevé de canaux me permet en effet, au delà de ce que ça représente comme intérêt sonore et compositionnel, de bénéficier de la possibilité d’effectuer si besoin est des réductions cohérentes (downscaling) vers le 22.2, le 17.1 jusqu’à l’Auro-3D (il est toujours plus facile de descendre que de monter).
Quant au Cirque 3D (multicouche !), basé sur les dispositions que j’affectionnais dans les années 90, il reste mon chouchou en terme de possibilités de composition spatiale (il n’y a pas de trou à l’intérieur...), mais comme je dois être le seul à le pratiquer, il est quasiment limité aux présentations que je fais avec mon équipement.

À ce propos, on pourrait penser que l’émergence du mixage orienté objet va changer les choses.
Pour la production dans l’industrie du cinéma et la diffusion grand public, je n’en doute pas et c’est tant mieux.
Mais pour ma production, sauf projets particuliers que j’explorerai avec plaisir, je ne pense pas.
Sans entrer dans trop de détails, la technique traditionnelle du multicanal discret est analogue à une image point à point, bitmap, comme une photographie, et souffre des mêmes inconvénient, notamment la difficulté d’en changer l’échelle et la dégradation qui s’en suit. La technique objet est comparable à une image vectorielle, comme un graphisme d’illustration, et bénéficie des mêmes avantages, notamment l’indépendance d’échelle et de résolution. Mais, comme pour l’image, le mixage objet impose une simplification dans la texture spatiale des sons : en gros, ça marche bien avec des sources mono que l’on place et anime, mais, par exemple, beaucoup plus difficilement avec des prises de son ou des traitements granulaires sur 24 canaux : c’est possible mais ça ne simplifie alors plus grand chose. D’où la nécessité de disposer d’un "bed" 9 canaux en Dolby Atmos.
Mais je tiens à conserver la liberté de disposer de l’ensemble de l’espace de projection pour y placer aussi bien des objets ponctuels que des images qui le recouvrent entièrement, et, peut être encore plus, à pouvoir choisir des dispositions spatiales qui ne se limitent pas au cercle et au carré... Et là, comme pour l’image, la solution est encore dans le "HiDPI", la haute résolution, qui, plus elle est élevée, plus elle peut être "downsamplée" facilement et sans perte.
D’accord, elle n’est pas très économique, et il est vrai que j’insiste peut-être un peu beaucoup sur cette histoire de résolution et de nombre de canaux. Mais c’est aussi parce que je m’énerve toujours quand je vois qu’une partie de la production acousmatique "plafonne" à l’octophonie depuis des années, alors qu’il y a tant à faire, tant de talents qui pourraient produire des merveilles et faire avancer notre art et notre écoute. C’est un peu comme si au cinéma on s’était contenté du Super 8 parce que "c’est déjà pas si mal" ou que "le 16 mm ça coûte cher". En plus, maintenant, on peut avoir un studio 16 canaux pour le prix jadis d’un REVOX...
Bref, veuillez m’excuser, et voilà pour "le dispositif d’écoute".


Un des premiers acousmodules en 2004, traitement de la masse spatiale de deux sur seize canaux 3D.
J’ai par la suite abandonné la représentation verticale détaillée pour des préconfigurations sur deux ou trois niveaux
de hauteur seulement, moins souples mais plus conformes à la majorité des usages et plus pratiques à utiliser.


En tout cas, pour faire tout ça, il faut bien évidemment disposer d’outils qui permettent de créer et d’agencer les sons, dans le temps comme dans l’espace.
Un point de départ possible est la capture de sons et d’espaces au moyen de microphones.
Pour un certain nombre de raisons, dont la disponibilité matérielle et le coût de l’équipement, je suis longtemps resté très classique dans ce domaine : des prises mono et stéréo, suivies ou non de traitements multicanaux, dont la masse spatiale était placées, adaptée et animée à l’intérieur du dispositif multicanal choisi.
C’est avec la sortie du Zoom H2 et, en 2006, de mes premières prises 8 canaux, qu’une nouvelle aventure a commencé...
Si la plupart du temps un couple de micros pour les prises de proximité d’objets sonnants ou le H2n pour les scènes larges restent tout à fait suffisant et adaptés, la multiplication du nombre de micros et la variété de leurs dispositions peut générer des espaces-objets d’une richesse et d’une complexité sans équivalent, ou qui peuvent remplacer avec bonheur certains traitements de la masses spatiales.
Parmi mes premiers objets sonores octophoniques, il y a eu la descente et la montée d’un escalier en bois (un micro posé toutes les 2 ou 3 marches), une ouverture et fermeture d’une vieille fenêtre de mon atelier d’alors (les 8 micros placés sur son cadre), et le roulement de boules de pétanque sur le sol bétonné d’un hangar, les 8 micros cette fois alignés sur une dizaine de mètres.
Ces trois objets, peu transformés, sont intégrés dans la première partie de mes Histoires fantacousmatiques commencées en 2006, d’abord en 22.2, la composition s’étant ensuite poursuivie sur plusieurs années pour finir en Cinéma 42.
Ceci illustre tout l’intérêt qu’il y a pour moi à travailler avec des configurations de micros libres et une résolution spatiale élevée : aucun de ces objets octophoniques n’a été fabriqué pour une disposition d’enceintes également octophonique qui lui corresponde. Au contraire, chacun a été capturé d’une manière à obtenir une image spatiale assez détaillée, qui puisse rendre une idée de dimension, et ensuite, ces objets ont été placés sur les différents "points d’accroche" disponibles en fonction de la disposition et de la résolution du dispositif de composition/projection, suivant ou non la logique spatiale de la capture. Par exemple, l’escalier qui était en colimaçon se retrouve au début faire une grande descente en L, la boule effectue souvent des demi cercles, seule la fenêtre, bien qu’agrandie, conserve son placement en aplat vertical.
Le degré de réalisme des images entendues n’a pas forcément à voir avec le degré de ressemblance entre "l’original" et sa capture, en tout cas il ne me préoccupe pas. Et ce n’est pas parce que les exemples précédents concernent des sons-objets plutôt que des "ambiances", ce serait exactement la même chose pour des prises effectuées avec un "arbre 3D". Comme au cinéma, nous savons parfaitement que le choix du cadrage et de la focale ne sert pas qu’à reproduire l’image mais permet de fabriquer un objet visuel nouveau (encore une fois, l’histoire de la réalité virtuelle et de la virtualité réelle...). Et dans tous les cas, le jeu des corrélations/décorrélations entre les canaux, les différences d’acoustique captée par chacun des microphones (par exemple l’escalier reliait une salle mate et une très réverbérante) et divers accidents rendent ces objets beaucoup plus intéressants que s’ils avaient été capturés en stéréo puis "spatialisés".
Ensuite, en 2009, j’ai eu l’occasion d’expérimenter quelques prises sur 18 canaux pour la réalisation de Tournages avec les enfants d’une classe de 5ème, où chaque microphone était placé à l’endroit où allait se trouver une enceinte, selon un dispositif en disque (quatre cercle concentriques). Les enfants étaient placés devant les micros ou se déplaçaient de différentes manières en produisant des sons suivant une sorte de scénario.
Le travail de traitement et de composition sur ces prises 18 canaux s’est ensuite fait, comme en stéréo, en conservant leur espace initial, qui là correspondait directement au dispositif de diffusion : effets / montages / mixage sur les fichiers 18 canaux dans Reaper.
Depuis, j’ai continué à m’amuser en ajoutant des micros et en variant les situations (encore merci Zoom et Thomann !), et je viens même d’investir dans un micro ambisonic (Tetramic) pour des alternatives à la quadriphonie légère du H2n, lorsqu’il n’y a pas besoin de capturer du détail mais où il se passe quelque chose dans la verticalité.
Tout ça pour dire que dans ce domaine il n’y a pas de règle et que l’expérimentation est reine...

En ce qui concerne (enfin) les outils de composition, je n’insisterai pas sur la période de la bande multipiste et de ses fortes contraintes (une piste = un son = une enceinte !), ni sur celle, exaltante mais épuisante, des échantillonneurs avec leurs sorties multiples associés au séquenceur MIDI (ASR10 + S770 + K2000 + Cubase ATARI pour L’oeil tactile en 24 canaux en 1996), et encore moins sur les terribles limites de l’ordinateur et des multipistes jusqu’au milieu des années 2000, pour m’extasier sur la richesse et la souplesse des solutions logicielles et matérielles actuelles ;-)


Un des derniers acousmodules en 2015, lecteur d’échantillons sur 52 canaux conçu pour être joué à partir d’un clavier
compatible Multidimensional Polyphonic Expression comme le Linnstrument et des contrôleurs 2D ou 3D


Pour ma part, à l’issue de cette période noire ou l’informatique était à la fois prometteuse et très frustrante, j’ai découvert en 2003 qu’il était en fait assez facile de fabriquer des outils pour traiter la masse spatiale quel que soit son format (donc y compris au-delà des 8 ou 12 canaux qui constituaient alors la limite des panners surround), et que je pouvais réaliser des instruments et des traitements modestes mais parfaitement adaptés à l’écriture multiphonique que je développais : il suffisait d’y consacrer du temps (beaucoup !).
D’autres, chercheurs et programmeurs, faisaient évidemment déjà ce genre de chose depuis longtemps, mais généralement sous la forme d’outils dédiés à la "spatialisation". Et ça, ça revenait pour moi à dissocier le travail sur le son du traitement de son espace, ce qui représentait un immense pas en arrière après avoir connu dans les années 90 les liaisons si intimes dans les échantillonneurs entre le contrôle spatial et les autres aspects du son.
C’est donc Synthedit qui, en permettant la réalisation de plugins multicanaux (les acousmodules), m’a littéralement fait redémarrer dans la création sonore. Ce qu’il y a en effet de merveilleux avec les plugins, c’est leur totale intégration au sein des outils de composition, des multipistes, c’est de pouvoir les combiner à l’infini (au besoin...) pour adapter les outils aux nécessités de l’écriture sonore.
J’ai eu rapidement la chance en 2004 que l’auteur de Podium ait été ouvert à l’idée d’étendre la compatibilité multicanale de son logiciel à 32 canaux, puis, quelques années après, encore plus de chance lorsque Reaper, à la suite de mises à jour progressives, est devenu le logiciel indispensable que l’on connaît maintenant.
Depuis, à l’exception des réverbérations (merci à la Pristinespace de Voxengo et à Reflect de Virsyn) et à quelques types de traitements granulaires (Hourglass, Reaktor 3) et FFT (comme Photosounder et NMFDemix), pratiquement tout mon travail s’effectue grâce à mes plugins directement dans les formats spatiaux voulus, dont une grosse partie avec des "échantillonneurs" (SpatSampler et consorts).
J’ai en effet toujours privilégié le contrôle gestuel direct à la programmation, fut elle aussi simple que le tracé à la souris d’une courbe d’automation. C’est pour moi la manière la plus efficace de relier le faire à l’entendre, le son et son traitement, de pouvoir guider à l’oreille toutes les inflexions et les surprises qui ne manquent pas de se produire. Je reste en effet très prudent face aux simplifications qu’opèrent les représentations graphiques (surtout les "trajectoires" !) car elles ne représentent que très faiblement la réalité perceptive spatiale et risquent toujours de fermer les oreilles à ce qui est important, et que les auditeurs, eux, ne manqueront peut-être pas d’entendre.
Dans ce domaine, ça devient de plus en plus exaltant avec la multiplication des périphériques dits "expressifs".
Le merveilleux Linnstrument, les tablettes tactiles et le LeapMotion pour ne citer que ceux qui sont pour moi aujourd’hui les plus importants, sont venu s’ajouter aux pédales, tablettes graphiques et contrôleur de souffle pour constituer un bric-à-brac fantastique, qui, comme les outils dans la boîte de l’ébéniste ou du mécanicien, permettent de sélectionner celui qui convient à une tâche particulière.
Et avoir le choix, dans tous les cas, c’est ce que j’aime ;-)

Pour plein d’autres choses, rendez vous sur http://sonsdanslair.free.fr