De l'acoustique virtuelle à la réalité virtuelle

Vous consultez

De l’acoustique virtuelle à la réalité virtuelle

Entretien avecOlivier Warusfeldu même auteur

Docteur en acoustique de l’université Paris-6, il dirige l’équipe Acoustique des salles de l’Ircam, rattachée à l’UMR du CNRS « Sciences et technologies de la musique et du son ». Il a enseigné l’acoustique musicale à l’université Paris-8 et assuré la coordination pédagogique et l’enseignement de l’acoustique des salles au sein du DEA Acoustique, traitement du signal et informatique appliqués à la Musique. Ses principaux champs de recherche sont le traitement du signal appliqué à l’acoustique des salles et aux techniques de spatialisation sonore ainsi que l’audition et la cognition spatiale.

1

JEHANNE DAUTREY : Pourriez vous retracer l’histoire des différents programmes auxquels vous avez travaillé : que saisissent-ils de l’architecture ? Quels paramètres architecturaux explorent-ils ?

2

OLIVIER WARUSFEL : Notre démarche n’a pas toujours été liée à l’architecture. Pour retracer notre parcours, nous avons commencé dans les années quatre-vingt avec Jean-Pascal Jullien à travailler sur les questions de l’acoustique des salles. Notre idée était de pouvoir caractériser la qualité acoustique des salles, en appliquant des méthodes de traitement du signal pour mesurer la réponse d’une salle entre une source et un récepteur disposés à des endroits donnés. On cherche ainsi à qualifier la transformation sonore subie par une source jusqu’à sa réception par l’auditeur. Ce modèle repose bien sûr sur un certain nombre d’approximations. Le problème est que le haut-parleur a un diagramme d’émission fixe alors que chaque instrument de musique a son propre diagramme d’émission, qui plus est variant tout le temps, avant et après chaque note, en fonction du registre, du doigté ou de son orientation du fait des mouvements de l’instrumentiste. À l’autre bout de la chaîne on fait aussi une approximation puisqu’on remplace l’auditeur par un ou plusieurs microphones. Mais on obtient quand même une trace. À partir de cette signature, on essaye de découvrir les paramètres pertinents pour analyser cette réponse sur le plan perceptif. On peut aussi l’utiliser en simulation (comme dans la technique des samples). La réponse mesurée dans la salle peut être utilisée pour filtrer n’importe quel signal de parole ou de musique : on parvient ainsi à recomposer l’image auditive de cette salle, compte tenu des approximations précisées tout à l’heure. Cette technique est utilisée de nos jours dans certains réverbérateurs du commerce. Nous nous sommes ainsi constitué une banque de données enregistrées dans différentes salles de concert ou d’opéra. On a ainsi une série de photographies acoustiques de ces situations, Par contre on n’a pas de quoi faire vivre les événements, par exemple pour naviguer dans une salle ou effectuer un morphing entre salles, on a juste une banque de données. Il manque alors un modèle qui décrive de manière générique cet ensemble de situations. Or notre objectif est de fournir aux compositeurs de nouveaux outils.

3

J. DAUTREY : ou de nouveaux objets…

4

O. WARUSFEL : Effectivement. On cherche un modèle qui puisse décrire le monde réel et si possible s’étendre à des mondes imaginaires.

5

J. DAUTREY : Peut-on considérer que l’on aurait là de nouveaux objets musicaux, un nouveau matériau sonore qui serait non pas le son brut, mais le son joué à un certain moment dans tel lieu ?

6

O. WARUSFEL : Pour constituer ces modèles on peut recourir à la modélisation physique et aux outils de prédiction acoustique permettant au compositeur d’anticiper la réponse acoustique de la salle sans se déplacer sur les lieux. Cet outil de prédiction peut aussi servir aux architectes. Il leur permet de remplacer les simulations sur maquettes à l’échelle 1/10e ou 1/50e. Pour mesurer ces maquettes, les acousticiens procédaient avec des mini-sources émettant des mini-ondes de longueurs proportionnées à l’échelle de la maquette c’est-à-dire débordant sur le domaine ultrasonore. L’avantage de la modélisation physique est qu’on a maintenant une trace des événements qui permet de modéliser l’expérience et on peut tester plus facilement différentes variantes du modèle architectural pour remonter aux causes des problèmes, dans le cas d’un trop grand retard d’une réflexion par exemple.

7

Cela reste en même temps encore très rudimentaire, les modèles inverses n’étant pas élaborés. Nous n’avons actuellement pas de modèle inverse convaincant, c’est-à-dire de modèle inverse permettant de partir des réponses impulsionnelles voulues et de remonter directement aux causes au lieu de partir du modèle architectural et de procéder par tâtonnements.

8

On peut aussi s’intéresser à la perception en reprenant cette réponse impulsionnelle et en étudiant quels sont les éléments interprétés par l’audition ; il y a différents degrés de finesse dans l’audition. Par exemple, modifier la date ou l’amplitude d’une réflexion au sein de la réverbération tardive sera en dessous du seuil de perception. Par contre cette même modification appliquée à une réflexion précoce saute aux oreilles de l’auditeur. Le problème est de déterminer quels sont les éléments importants dans cette réponse de salle et comment noter la manière dont la perception interprète ces transformations sonores. Une fois les yeux fermés lorsqu’on juge une scène auditive, on est conscient de la direction des sources dans l’espace, de l’environnement (lieu ouvert, semi-ouvert, urbain…) ; notre représentation de la localisation auditive est assez conforme à la géométrie et aux coordonnées sphériques (direction dans le plan horizontal, vertical, distance). Mais une fois qu’on s’intéresse aux informations livrées par la salle, le parallèle est beaucoup plus lâche ; nous ne sommes pas capables de percevoir la forme de la salle ; on peut avoir conscience du volume de la salle, de ses matériaux, de son degré de réverbération mais cela ne va pas bien au-delà. On n’a pas de reconnaissance les yeux fermés des données architecturales de la salle. Les paramètres sont d’un autre ordre comme l’impression de présence de la source, d’enveloppement, de réverbérance de la salle.

9

J. DAUTREY : Ce sont des prégnances ?

10

O. WARUSFEL : Oui, exactement, ce sont des caractères prégnants.

11

J. DAUTREY : Sont-ils perçus directement ou établis par des analogies ?

12

O. WARUSFEL : Il s’agit de jugements acoustiques non directement liés à la géométrie et à l’architecture du lieu. C’est un peu comme dans le cas de la cuisine, on juge les condiments sur un certain nombre de dimensions perceptives qui reposent sur des capteurs. Ces dimensions relèvent de la psychophysique. D’où l’idée de décrire ces paramètres.

13

Notre idée est à partir de là de construire un modèle générique selon ces paramètres qui gouvernent notre perception. Le compositeur ou l’ingénieur du son va manipuler ces paramètres pour produire l’impression d’une salle mais en court-circuitant les causes, en court-circuitant l’architecture. On peut même construire à partir de cela des « monstres acoustiques » qui relèvent malgré tout du modèle de perception de qualité acoustique des salles mais par extrapolation des paramètres, au delà de ce qu’on peut trouver dans le monde réel.

14

J. DAUTREY : À quel stade ces outils sont-ils utilisés par les compositeurs ?

15

O. WARUSFEL : Ils lui permettent de préparer l’exécution de son œuvre dès le moment de la composition en contrôlant ces différents paramètres de présence, d’enveloppement, de réverbération, etc. Il s’agit de lui fournir des outils de contrôle qu’il puisse lire et maîtriser, et qui lui permette d’anticiper le résultat sonore par l’écoute interne au même titre que l’écriture instrumentale.

16

Pour que ce système d’écriture fonctionne il faut qu’il y ait unicité entre le symbole et l’effet produit.

17

À partir de ce moment-là on s’est éloigné de l’acoustique architecturale à proprement parler.

18

Dans la recherche, on fonctionne de manière cyclique, on néglige momentanément certains domaines pour se focaliser sur d’autres : si au début notre domaine interlocuteur était plutôt celui de l’architecture, à partir du moment où on a construit des outils de synthèse de la spatialisation, on s’est ensuite rapproché des compositeurs. On a beaucoup travaillé sur les outils de traitement de signal, que cela concerne la localisation dans l’espace ou un effet de salle. On s’est intéressé aux techniques de restitution : binaurale sur casque, ou divers formats pour les dispositifs multi-haut-parleurs… Plus récemment, on s’est intéressé à la perception multi-sensorielle, notamment à travers la réalité virtuelle, biais par lequel on pourra, je l’espère, réintroduire les dimensions virtuelles et architecturales.

19

Dans l’Espace de Projection, la salle à acoustique variable de l’ircam, on a déjà un système de dissociation entre espace virtuel et espace réel : on peut vraiment créer des espaces sonores spécifiques, bien que l’effet visuel soit quasiment inchangé. Il faut pour s’en apercevoir, assister au ré-arrangement de la salle, mais cela se fait entre les concerts.

20

J. DAUTREY : Est-ce que des compositeurs ont essayé de jouer avec cette modularité ?

21

O. WARUSFEL : On choisit plutôt une configuration pour le concert ou pour une œuvre. Modifier la configuration au cours de l’œuvre est resté rare, les compositeurs se trouvant limités à l’utilisation de cette salle dès lors qu’ils avaient composé de cette manière. Dans cet esprit on peut citer le travail récent de Beat Furrer qui pour sa pièce Fama utilise un dispositif inversé où le public est situé dans une boîte dont les parois constituées d’ouïes sont manœuvrées en cours d’exécution pour moduler la rumeur des sons produits par les instrumentistes répartis ou déambulant à l’extérieur.

22

Nous avons ensuite travaillé sur la reproduction binaurale sur casque et sur le système Wave Field Synthesis (wfs). Bien que ces systèmes soient très différents sur le principe, ils donnent accès à des types d’écoute jusque là inouïs : ils permettent de réaliser une expérience d’écoute spatiale cohérente tout en se déplaçant. Qu’est-ce que cela veut dire ? Dans les systèmes stéréophoniques vous êtes contraints de rester au centre du dispositif car les phénomènes engendrés ne reconstituent pas la réalité physique. Ils ne reconstruisent qu’une illusion sonore comme les trompe-l’œil. Je cite souvent en exemple l’église San Ignacio à Rome dans laquelle la voûte et la coupole sont en fait peintes en perspective et créent l’illusion d’une hauteur double de la hauteur réelle. Dès que l’on se décentre, l’effet s’évanouit. La stéréo fonctionne de la même manière : il faut être au centre du dispositif pour avoir cette impression spatiale ; sitôt que vous êtes situés trop près d’un haut-parleur, l’effet d’illusion s’évanouit et vous entendez le haut-parleur, le médium qui sert à créer l’image et non plus la source sonore que vous désiriez. La magie cesse de fonctionner, il y a trop de distorsion entre le haut-parleur et la source virtuelle. Le problème est que les seuls à être vraiment bien situés sont les gens situés derrière la console de mixage. L’idée de la wfs part d’un autre principe : il s’agit de reconstituer un champ physique qui va respecter les propriétés de distribution du champ dans l’espace. Quand elle a été développée par l’université de Delft dans les années quatre-vingt, l’argument principal était que l’on entende la même chose partout ; mais pour moi ce qui compte est que vous avez un point de vue différent mais cohérent depuis chaque point dans la salle. La position virtuelle de la source reste stable dans l’espace quelle que soit votre place.

23

J. DAUTREY : Est-ce comme une équivalence nouvelle entre des points de vue multiples ?

24

O. WARUSFEL : Cette source virtuelle acquiert une prégnance suffisante car vous ne pouvez pas vous en échapper comme vous pouvez échapper à un trompe-l’œil. Dans la wfs on reconstitue un front d’onde qui reste cohérent quels que soient votre position ou vos mouvements. Contrairement au casque dans lequel les sons vous accompagnent et restent fixes par rapport à vos déplacements, les sons ne suivent pas les mouvements de votre tête, ils vous donnent l’impression d’exister réellement, indépendamment de vous. On peut ainsi réintégrer l’écoute dans une expérience plus large, multisensorielle. C’est un domaine encore relativement nouveau ; il reste à voir son intérêt artistique mais on constate que dans les installations sonores en particulier, les artistes s’emparent de plus en plus de ces moyens technologiques pour composer de nouvelles expériences sensorielles, qu’elles soient réalistes, comme les simulateurs ou les jeux, ou qu’elles s’écartent des lois du monde physique et proposent d’autres cohérences : par exemple, des lois de congruence entre proprioception et vision ou entre proprioception et audition, assez stables pour que le cerveau apprenne ces nouvelles lois.

25

Il se trouve que notre cerveau a une grande plasticité, il est capable de se réadapter en permanence à de nouvelles situations pourvu qu’elles aient une cohérence : il ne peut pas s’adapter à quelque chose qui change tout le temps.

26

J. DAUTREY : Ce sont des lois qui seraient construites par les compositeurs en vue de construire de nouveaux espaces ?

27

O. WARUSFEL : Oui, par exemple, on peut créer une dissociation entre les sensations proprioceptives et idiothétiques, qui sont les sensations engendrées par nos propres mouvements et les sensations auditives spatiales. On peut ainsi tout à fait imaginer un monde dans lequel lorsqu’on s’éloigne d’une source, le son augmente, et donc se rapproche. Si l’on ne fait cela qu’une fois, cela choque ; mais si l’on construit un monde virtuel basé sur une relation de cette sorte, dans lequel ce phénomène se reproduit régulièrement, le cerveau se réadapte et l’accepte. On peut ainsi créer des distorsions dans différents buts. Voilà un domaine de connaissance qui est encore en friche et qui intéresse beaucoup les neurosciences : celles-ci s’intéressent aux mécanismes d’intégration multisensorielle, c’est-à-dire à la manière spécifique dont nos voies sensorielles concourent pour se représenter l’espace. En effet, les canaux auditifs encodent l’espace de manière complètement différente par rapport aux canaux visuels : on peut par exemple percevoir la distance avec une seule oreille alors qu’avec un seul œil c’est impossible. Par contre, pour la localisation en direction, c’est l’inverse : on peut se contenter d’un seul œil mais il faut les deux oreilles, ce qui signifie que cette information requiert déjà un processus de comparaison entre les deux canaux auditifs. C’est ce qu’on appelle écoute binaurale. Par ailleurs, notre vision est limitée au champ visuel frontal, par conséquent nous devons recomposer l’espace par superposition de points de vue successifs liés aux mouvements oculaires ou de la tête, tandis que notre audition est en permanence reliée à l’espace entier. Le problème est donc de comprendre comment ces voies de traitement, spécifiques à chaque modalité sensorielle, convergent pour former une représentation spatiale unifiée.

28

J. DAUTREY : Il y a des zones de recouvrement ?

29

O. WARUSFEL : Il y a effectivement des zones de recouvrement. Il y a des parties du cerveau qui sont spécifiques de l’audition, de la vision, de la proprioception, mais il existe également des neurones bimodaux ou trimodaux, c’est-à-dire des neurones qui répondent à des stimulations sensorielles dans plusieurs modalités, visuelle et auditive ou visuelle et tactile par exemple. On pense qu’ils jouent un rôle essentiel dans le traitement de l’espace et aussi pour les processus perception/action. Les recherches sur la réalité virtuelle sont alors utiles aux neurosciences pour comprendre comment se produisent ces mécanismes de convergence ; en introduisant des distorsions entre modalités sensorielles on peut construire des mondes en quelque sorte « parallèles » un peu étranges et tenter de comprendre ce qui est déterminant pour l’intégration multisensorielle. Nous travaillons sur ces questions avec Isabelle Viaud-Delmon du cnrs-Salpêtrière. Par exemple, quelqu’un est assis sur une chaise tournante que l’on fait tourner de 90 degrés tandis que le monde visuel qu’il voit dans le casque stéréoscopique ou le monde auditif écouté au casque ne tourne que de 45 degrés : on crée donc une distorsion entre perception vestibulaire et perception visuelle ou auditive. Ce qui nous intéresse à partir de là est d’une part de savoir si les sujets sont conscients de cette distorsion ou non, s’ils s’y adaptent… et d’autre part, si on leur demande de refaire le mouvement ou de le dessiner, s’ils s’appuient plutôt sur leur mémoire vestibulaire ou sur leur mémoire visuelle ou auditive.

30

J. DAUTREY : J’ai l’impression que les neurosciences se déplacent elles-mêmes de leur côté en s’intéressant à des expériences de type psychotique.

31

O. WARUSFEL : Ce qu’on peut dire en tout cas, c’est que les neurosciences s’intéressent bien sûr aux psychopathologies. C’est effectivement un domaine dans lequel travaille Isabelle Viaud-Delmon : il y a pas mal de pathologies qui s’accompagnent de troubles spatiaux y compris engageant la composante auditive. Confronter les réponses d’une population présentant des traits psychopathologiques à celle d’une population « normale » lorsqu’elles sont soumises à des situations de réalité virtuelle renvoie des informations sur les dysfonctionnements (et donc sur les fonctionnements) des mécanismes de cognition et perception spatiale.

32

Dans le domaine musical et en particulier dans le domaine des installations sonores, les compositeurs peuvent effectivement s’emparer des dispositifs technologiques mis en place pour l’étude des réalités virtuelles pour produire un geste artistique. On peut assez facilement imaginer que les distorsions dont nous venons de parler puissent être des ressorts dramatiques. C’est aussi un axe sur lequel on travaille en ce moment. Et cela nous fait revenir à l’architecture. Quand on appréhende l’architecture d’un lieu, on construit une expérience dans le temps : c’est à travers une navigation du corps, autrement dit son déplacement dans le bâtiment, que l’on construit une représentation mentale de l’espace structurée par le bâtiment. On comprend la manière dont il est construit en l’habitant, en le pénétrant, en le parcourant tout autant qu’en tournant autour, en captant tout un ensemble d’informations spatiales. Le bâtiment n’est pas un objet unique, il n’est pas donné d’un seul coup d’œil et les représentations spatiales exocentriques, accessibles par la lecture d’un plan ou égocentriques, issues de l’exploration ne coïncident pas forcément. Dans les installations sonores, on retrouve cette approche du fait que l’on est plongé dans un espace que l’on perçoit par la navigation et qui n’est pas donné une fois pour toutes selon un point de vue fixe : la navigation est alors portée par la structure musicale, mais elle va également l’engendrer. Cela pose des problèmes complexes du fait que la musique est plutôt conçue comme un art du temps que comme un art de l’espace.

33

J. DAUTREY : Oui mais un compositeur tel que Nono disait bien qu’il était important d’élaborer maintenant une musicologie de l’espace…

34

O. WARUSFEL : Oui, tout à fait, cela reste un domaine sur lequel il faut travailler pour voir quels modèles et quels outils d’écriture spatiale ont été développés jusqu’à présent et quels nouveaux modèles et outils doivent l’être. Je pense qu’il y a une véritable difficulté à introduire l’espace dans l’écriture musicale ; son usage reste souvent anecdotique. L’espace a une dimension ontologique du fait qu’il conditionne le déploiement des sons, et en même temps ce n’est pas le paramètre le plus prégnant du fait qu’il ne possède pas le même potentiel de structuration que les hauteurs, en termes de signes autant que de catégorisation. On a une perception beaucoup moins fine et moins structurée de l’espace qu’on n’en a du champ des hauteurs, lui-même très structuré par les rapports harmoniques qui fournissent un cadre à l’écriture musicale.

35

J. DAUTREY : Voulez-vous dire que le problème est que l’espace n’est pas intrinsèque à l’écriture musicale ?

36

O. WARUSFEL : Oui. C’est bien entendu le projet des compositeurs mais l’espace est un paramètre continu et un peu flou dans lequel il n’y a pas de pôles forts comme le sont les hauteurs, les intervalles… Grâce à l’espace on peut fusionner les sons, les séparer afin d’avoir une lisibilité auditive accrue, les faire se déplacer dans des directions différences, créer des pôles et des interférences entre rythme et mouvements dans l’espace comme l’a fait Emmanuel Nunes, mais cela ne fait pas une échelle organisée ni des prégnances variées.

37

J. DAUTREY : Et pourtant j’ai quand même l’impression que vous fournissez aux compositeurs des outils qui permettent de déployer des variétés d’espaces, de travailler la variation de l’espace.

38

O. WARUSFEL : C’est effectivement notre ambition que de fournir des manipulations de l’espace sous forme d’outils d’écriture utilisables dès le stade de la composition et non seulement au moment de l’exécution. Nous ne travaillons pas seulement à la production d’effets, mais aussi à l’écriture de ces effets en vue de les rendre maniables pour les compositeurs.

39

J. DAUTREY : Les espaces manipulés seraient alors des objets musicaux possibles. Il me semble qu’il y a la possibilité de créer de nouvelles architectures d’espace liées à de nouveaux processus d’écoute qui passeraient par de nouvelles consciences spatiales et par des critères plastiques et non plus temporels de l’écoute.

40

O. WARUSFEL : C’est peut-être une opinion encore diffuse, mais il me semble que le problème est que l’écoute en mouvement, telle qu’engagée dans les installations sonores, annule ou en tout cas altère la perception temporelle ; il y a un paradoxe entre la temporalité de l’écriture et l’écriture du déplacement, comme si pour écouter la musique il fallait être statique. Ainsi, quand on marche, il est difficile de cadrer simultanément les contraintes temporelles et spatiales. Si on lance une phrase musicale et que l’auditeur sort de la zone de diffusion associée à cette phrase avant la fin de cette phrase, que fait-on ? Est-ce qu’on l’arrête et qu’on passe à autre chose, auquel cas il en perd le décours temporel, ou est-ce qu’on la prolonge, auquel cas on perd le principe de zonage de l’espace que l’on avait choisi ?

41

J. DAUTREY : Il y a un problème de bords…

42

O. WARUSFEL : Oui. C’est le problème du zonage et des bords, le problème de la conscience du temps que l’on peut avoir quand on se déplace… il y a beaucoup de choses à manier. La musique interactive sur laquelle l’auditeur peut agir correspond à un concept qui n’est pas évident à construire : il faut écrire non seulement le résultat mais aussi l’interaction.

43

J. DAUTREY : N’est-ce pas justement que ce que fait Cécile Le Prado ? Je pense à la pièce Secret Lisboa dans lequel elle couple l’espace de navigation avec le développement d’un regard sur la ville elle-même.

44

O. WARUSFEL : Si, effectivement. La question est de savoir quels outils développer pour écrire l’interaction entre les déplacements et le contenu sonore, les événements extérieurs et le contenu calculé. Ce travail a été initié au cours du projet Listen par Beat Zoderer, plasticien, le compositeur Ramon Gonzales Arroyo et Gerhard Eckel dans le cadre d’une installation au musée de Bonn. Ils ont conçu des trames sonores qui évoluaient en fonction des déplacements de l’auditeur dans l’espace, en jouant également sur les circonvolutions temporelles du parcours. Il y avait un zonage coloré au sol de telle sorte que le franchissement des zones était assorti de modifications, qui prenaient en compte la possibilité de revenir en arrière sans que les mêmes événements se répètent.

45

J. DAUTREY : C’est très intéressant : cela suppose qu’ils prennent non seulement en compte le déplacement, mais aussi la nature du retour en arrière et ce qui est en jeu dans ce retour. Et appliqué à une visite de musée, cela relance une question complexe : que cherche-t-on quand on revient en arrière dans une exposition ? On peut bien imaginer à partir de là le développement de modèles de découvertes non linéaires procédant par changements de dimensions. Par contre, on retombe là sur un jeu de correspondances entre ce qui se passait à l’oreille et ce qui se donnait à voir.

46

O. WARUSFEL : Il y avait effectivement une sorte de champ lexical entre les différentes modalités visuelles, auditives, les éléments textuels écrits par Oswald Egger et le déplacement.

47

C’est à partir de là que j’ai proposé à Cécile le Prado de reprendre sa pièce sonore Secret Lisboa pour la déployer dans un espace d’immersion composé d’un mélange d’ambiances sonores spatiales captées à Lisbonne et d’entretiens avec le philosophe Gilles Tiberghien.

48

J. DAUTREY : Sauf que Cécile Le Prado semble refuser cette équivalence œil/oreille et place ses auditeurs dans le noir…

49

On voit apparaître un parallèle entre le discours des architectes sur l’espace et ce que vous faites ici que je trouve très intéressant. On n’est plus dans l’idée d’une stabilité architecturale ou spatiale, mais on entre dans une problématique du découpage. Je pense également aux réalisations de Louis Dandrel dans les espaces urbains, ou au nouvel opéra de Toyo Ito à Shangaï ; ce qui se dessine, dans toutes ces pratiques, c’est un nouveau rapport entre le dedans et le dehors. Je pense aussi aux œuvres de Manos Tsangaris, dont certaines pièces commencent dehors pour s’achever dans la salle de concert. Même la philosophie se nourrit de ces nouvelles catégories pour penser la dynamique de l’écoute musicale. Penser une plastique de l’écoute, c’est penser non seulement de nouvelles enveloppes, mais aussi la question du rapport dedans/dehors, la question de l’écoute non comme optimum mais comme errance. Que signifie basculer de l’intérieur à l’extérieur quand on écoute ?

50

On intègre de plus en plus de paramètres qui construisent des compositions d’espaces-temps de plus en plus complexes et intériorisés.

51

O. WARUSFEL : C’est pour moi un des grands intérêts de la réalité virtuelle. De mon point de vue, la réalité virtuelle n’a aucun intérêt s’il s’agit de reconstruire des mondes réalistes mais c’est un outil et un miroir très riche pour l’exploration des mécanismes de cognition. On peut créer des mondes qui répondent à des lois différentes, voir quels sont les processus d’apprentissage conscients ou non conscients convoqués pour s’habituer à ces nouvelles conditions.

52

J. DAUTREY : Quand on conçoit de nouvelles modélisations, cela a un effet rétroactif sur les pratiques précédentes : et non seulement on se rend compte que les outils de ces nouvelles modélisations s’appliquent également au passé, mais ces outils permettent de produire un regard nouveau sur ce passé.

53

O. WARUSFEL : Il me semble que l’on peut faire un parallèle avec le rôle qu’ont les installations dans les réflexions sur la musique instrumentale : les nouveaux espaces ouverts par la musique électroacoustique ont conduit à se poser tout un tas de questions sur ce qu’est une source sonore, un objet sonore, un instrument de musique. L’électroacoustique fonctionne pour moi comme un espace d’esquisses qui permet à la musique de faire progresser sa propre pensée. On observe ainsi un retour des jeunes compositeurs aux instruments de musique : Yan Maresz réorchestre dans cet esprit des pièces électroacoustiques pour instruments réels. Il s’agit en quelque sorte d’une ré-incarnation de la musique électroacoustique par l’engagement du corps dans la musique et la ré-appropriation des effets sonores de l’électroacoustique. On peut lire également cette démarche dans la pièce de Beat Furrer citée plus haut à propos du travail sur l’espace. Peut-être arrivera-t-on aux mêmes résultats pour la réalité virtuelle, peut-être les architectes parviendront-ils à se réapproprier les techniques virtuelles de production de mondes pour réinventer un nouvel usage des matériaux traditionnels ou travailler sur les relations entre espaces parcourus et espaces vus. Je pense notamment aux sculptures de Richard Serra qui doivent être parcourues autant que regardées, ou encore à la réflexion de François Nicolas consacrée aux relations entre l’aspect (livré par la vision) et l’inspect (livré par le parcours) dans la Casa da Musica de Rem Koolhaas [1][1] F. Nicolas et G. Nicolas, « Penser comme un pied –....

54

J. DAUTREY : À partir de la réalité virtuelle, on peut aussi repenser la manière dont la musique de cette époque fait fonctionner la perception. Je me suis personnellement inspirée du travail qui était mené à l’ircam pour me demander ce qu’il en était d’une psychophysique aux xviie et xviiie siècles. Quand on considère que l’association du visuel et du sonore, par exemple, n’est pas donnée mais se construit dans le cadre d’un processus d’association, on considère d’un tout autre œil la naissance de l’opéra et son évolution.

55

O. WARUSFEL : Ce sont des choses auxquelles on commence tout juste à travailler timidement, et il faudrait vraisemblablement le faire avec le regard des musicologues.

56

(…) J’aimerais évoquer un autre projet qui apporte un éclairage différent sur le jeu entre l’architecture et la spatialisation sonore et qui est également riche musicalement. Il s’agit de retrouver les qualités de « présence » instrumentale pour la diffusion des sons électroacoustiques grâce à un travail sur la directivité des sources. Comme je l’ai expliqué, un haut-parleur a une caractéristique de rayonnement figée alors que chaque instrument a sa propre signature directive qui varie en fonction du jeu instrumental, ce qui lui donne sa vie. C’est une différence irréductible. Pendant très longtemps les compositeurs se sont émus de cette difficulté à faire vivre simultanément des sons naturels et des sons fabriqués, du manque d’osmose entre ces deux mondes ; le fait même de cette différence irréductible rend difficile le jeu entre ces deux mondes, notamment dans le cas d’œuvres mixtes. L’idée était de retrouver cette qualité de vie propre en dotant le haut-parleur de capacités de rayonnement contrôlables et variables. Non pas de manière réaliste, en copiant le rayonnement des instruments existants, clavecin, clarinette, ce qui serait du reste très difficile, mais en synthétisant des modes de jeu grâce à la directivité. Il s’agit d’une sorte de source en 3D, un polyèdre dont chaque facette est équipée d’un haut-parleur piloté indépendamment. Par traitement du signal on peut créer différents diagrammes de directivité, soit bidirectionnels, soit directifs, et dont on peut même contrôler l’orientation dans l’espace. Si l’on place cette source sur scène on peut lui faire jouer un véritable rôle instrumental en variant sa directivité en fonction de la hauteur, du spectre, etc. On lui redonne ainsi une capacité de phrasé musical. C’est là une autre manière de travailler avec l’électroacoustique en réintégrant le rayonnement physique dans la synthèse sonore. Dans les systèmes de diffusion conventionnels, constitués d’une série de haut-parleurs entourant l’auditoire, on cherche finalement à effacer la salle réelle pour en faire exister une autre. On peut par exemple aisément donner l’impression d’une cathédrale ; mais si je fais tomber un objet par terre ou si je parle, il y aura distorsion entre le lieu virtuel créé et le lieu réel parce que le système de diffusion sonore qui a essayé de se substituer à la salle est mis en échec par ces autres sons. En revanche, ce dispositif scénique ne cherche donc pas à se substituer à la salle mais simplement à l’éclairer, à en révéler les contours et les propriétés acoustiques.

57

J. DAUTREY : Et c’est cela que vous appelez révéler la salle.

58

O. WARUSFEL : Oui, révéler la salle mais aussi révéler la présence des autres. Ce que je veux dire par là, c’est qu’il révèle la source et l’auditoire. Si je m’adresse à un auditoire, je ne vais pas tout le temps regarder les mêmes personnes, je m’adresse tour à tour à l’un(e), ensuite à l’autre, je tourne la tête ; en tant qu’auditeur, même si vous êtes en train de prendre des notes sans regarder, vous entendez, par ces modifications de directivité, que vous n’êtes pas le seul présent. De manière indirecte, vous avez la conscience des autres qui écoutent. Même les yeux fermés, vous avez conscience d’une multiplicité de points de vue auxquels s’adresse le locuteur. Vous entendez des variations de directivité et la réponse de la salle qui vous indique en fait que vous partagez ce lieu. C’est important en termes de présence, présence de la source, présence des autres auditeurs dans un lieu partagé.

59

J. DAUTREY : Vous travaillez avec des compositeurs ?

60

O. WARUSFEL : Oui, à la fin des années quatre-vingt nous avons participé à la diffusion en plein air de Répons de Pierre Boulez dans la carrière de Boulbon lors du festival d’Avignon. L’enjeu était de recréer artificiellement les conditions d’une salle de concert alors qu’on était en plein air. Dans les années quatre-vingt-dix nous avons créé un logiciel de spatialisation, Le Spatialisateur, conçu par Jean-Marc Jot. Nous avons eu dès lors de nombreuses collaborations avec les compositeurs et assistants musicaux que ce soit pour le concert ou la post-production. La liste serait trop longue, je citerai Pierre Boulez, Jonathan Harvey, Philippe Manoury, Emmanuel Nunes, Kaija Saariaho, Marco Stroppa. Pour le dispositif scénique de contrôle de directivité nous avons notamment travaillé avec François Nicolas, Oliver Schneller, Valerio Sannicandro. En particulier, au cours de notre collaboration avec François Nicolas, une fois le dispositif et le traitement de signal développés, comme pour le Spatialisateur, nous avons cherché à dégager un vocabulaire élémentaire composé de différentes figures de directivité prégnantes pour la perception et qui permettent à un compositeur d’intégrer ces éléments dans sa partition et dans le processus d’écriture. Nous avons nommé ce dispositif Timée, en référence au Timée de Platon qui associe les différents polyèdres réguliers aux éléments composant le monde.

Notes

[1]

F. Nicolas et G. Nicolas, « Penser comme un pied – ou la question des parcours dans la Casa da Musica de Rem Koolhaas », in Cahiers thématiques (édités par l’école d’architecture de Lille), à paraître (juin 2007).