(N.B. André Dion a édité cette première édition d’ElectroOpuscule lors des JNME 2013. Celle-ci est une réédition en ligne proposé par l’Aecme en 2024.)
Temps Réel – Temps Différé
ElectrOpuscule n°1
de l’AECME
Association des enseignants et enseignantes de la composition en musique électroacoustique
Edité lors des 12èmes Journées nationales de la musique électroacoustique en 2013
au CRR d’Amiens
Imprimé par Amiens-Métropole
Amiens, le 03 décembre 2013
(voir tout en bas de la page pour la version pdf)
Contenu
André DION – ElectrOpuscule
Eric MULARD – Temps véritable et temps enregistré dans l’ art électroacoustique enregistré : un jeu de ping – pong entre des écoutes.
Jacques LEJEUNE – Temps réel et temps différé
Dieter KAUFMANN – Temps réel-temps différé
Patrick ROUDIER – Enseigner quels gestes, transmettre quels répertoires ?
Christophe de COUDENHOVE – Musique et Espace » : une expérience musicale et pédagogique multicanal.
Michel CHION – Que la musique concrète n’est pas une musique en « temps différé » : contre un dualisme
Alain SAVOURET – De la conjugaison du temps…
Jean-Marc DUCHENNE – Quand je danse, je danse…
Pierre BOESWILLWALD – L’avènement de l’électro-acoustique ou le haut-parleur, l’auditeur et le temps.
André DION
ElectrOpuscule
Bénéficiant de cette chance incroyable d’une deuxième édition des Journées nationales de l’électroacoustique organisée par l’AECME sur Amiens où j’enseigne cette musique au CRR sous la houlette de mon directeur Michel Crosset, j’ai souhaité, puisqu’également secrétaire de l’AECME, avec sa présidente Lucie Prod’Homme, fixer quelques réflexions qui foisonnent durant celles-ci, afin de contribuer aux réflexions sur l’enseignement de cet art.
En 2012, le thème des Journées, Le son, le sens, très porteur, s’il avait suscité de vives discussions, n’a laissé, hélas, aucune trace, du moins consultable. Cette année, l’AECME est très heureuse de vous proposer ce premier opuscule sur le thème des Journées 2013, Temps réel –Temps différé.
Pourquoi ce thème ?
Il vient d’un décalage croissant entre deux concepts de concert de cet art. D’une part, une rencontre entre des compositeurs fixant patiemment sur support des sons (souvent injouables en direct) et un public acceptant de se réunir pour seulement entendre ces oeuvres conçues dans un temps différé, sans rien voir de la source de ce qui se fait entendre.
D’autre part, un retour d’un visuel scénique de faiseurs de sons en temps réel, improvisateurs ou non, virtuoses puisque souhaitant produire de l’électroacoustique en direct via tous les contrôleurs possibles avec leurs seuls mains, bouches ou pieds, forcément limités, mais ramenant la perception à cet instant T tellement excitant, du moins déjà pour eux.
Deux temps pour un même art ?
Neuf personnes ont bien voulu écrire là-dessus, laisser une trace consultable, contribuant généreusement à notre réflexion commune, et à la naissance de ce premier ElectrOpuscule.
André Dion, 3 décembre 2013
Eric MULARD
Temps véritable et temps enregistré dans l’ art électroacoustique enregistré : un jeu de ping – pong entre des écoutes.
Le thème ainsi présenté me renvoie d’emblée et essentiellement à l’expérience en tant que créateur, autrement dit, à un temps vécu donc à un ressenti «au fil du temps »… qui pour moi représente plusieurs décennies.
Ces deux considérations de temps, j’allais dire discrimination, entre temps réel et temps différé, participent du déroulement de toute création en art électroacoustique sur support et du même coup, en définissent une des essences irréductibles de celui-ci.
Le distinguo entre un temps réel et un autre différé (différent ?), c’est une façon de rendre compte que deux sphères habitent l’artiste une fois embarqué dans son projet : deux sphères de nature polymorphes , au sens où le conscient et l’inconscient, l’irrationnel et le rationnel, l’émotionnel et le réfléchi sont dans un jeu alternatif, plus exactement co- génératif.
Essayons de visiter un peu ces deux sphères :
– Le temps réel est d’abord le moment de l’envie, le désir de projet plus ou moins confus plus ou moins abstrait, le moment où des «chimères à ouïr » hantent mon esprit. Un moment de fougue, qui vous prend, vous saisit, vous excède et finit par vous emporter dans une euphorie qui vous enjoint à faire, à fabriquer à accoucher de prémisses puis de matériaux puis de matières dévolues à l’écoute «haut-parlante» (hp).
Autrement dit, c’est le moment de l’acte, de l’action en continu, sans rupture temporelle substancielle entre la cause (captation de son) et l’effet sur mon écoute hp.
– Le temps différé renvoie pour moi à une prise de recul, une prise de distance, une écoute en surplomb et non en direct de l’acte qui en est la cause, un temps différent du faire.
L’écoute en temps différé suppose une rupture temporelle plus ou moins longue entre les deux temps d’écoute qui peut aller de quelques heures à quelques semaines, voire plus.
Je dirai que le temps différé est pour moi comme un «juge de paix ». C’est le moment de l’appréciation, du bilan provisoire où je sélectionne, je choisis, j’estime pour … in fine construire et/ou reconstruire. C’est un espace/ temps où se façonne peu à peu une cohérence, s’élabore une sorte de récit, de scénario, soumis dès lors à mon écoute hp.
Celle-ci devient dès lors, l’écoute d’un auditeur – lecteur – juge.
Juge de paix en effet, le temps différé invite subrepticement à une confrontation entre mon intention de départ, mes «chimères à ouïr» et le résultat tangible de ce que j’écoute
Alors, distance ou adéquation entre les deux ?
La réponse se traduira par un éventail d’attitudes qui ira du statuquo à la volonté d’un nouveau départ du projet, donc à nouveau l’immersion dans le temps réel de l’action qui elle-même appellera un temps différé et ceci ainsi de suite, comme un jeu de ping -pong entre les écoutes …jusqu’au moment où le temps différé mettra mon écoute hp -auditeur- lecteur-juge- dans l’attente d’une complétude.
Ainsi donc l’art électroacoustique enregistré par le fait qu’il n’a de réalité tangible que par l’intermédiaire d’une trace, d’un support, immerge l’artiste dans un aller et retour entre « le faire et l’entendre » comme l’a écrit Pierre Schaeffer, autrement dit , invite l’artiste à jouer simultanément deux rôles : être acteur et spectateur de son propre objet de désir.
C’est un prodige de cet art si singulier que d’offrir à l’artiste l’opportunité d’une confrontation entre le désir idéel et sa réalisation.
Eric Mulard, septembre 2013
Jacques LEJEUNE
Temps réel et temps différé
Il me faut tout d’abord clarifier mon ressenti concernant la juxtaposition de ces deux expressions.Le temps consacré à mon expérience pédagogique, c’est-à-dire le temps de mon savoir transmis à mes élèves, modifié bien sûr avec les apports technologiques qui sont apparus, résidait dans un temps réel puisque le but était d’apprendre des choses formatées, alors que le temps différé, me semble-t-il, est celui beaucoup plus personnel et aventureux du compositeur, c’est-à-dire un temps fluide qui représente une vie entière et qui englobe tous les chemins que j’ai pris. J’ai moi-même appris, après avoir commencé par la musique instrumentale à la Schola Cantorum en 1958, la musique concrète telle qu’elle était enseignée au Conservatoire National en 1969, puis par la suite, au début des années 1970, la pratique du synthétiseur à laquelle se sont rajoutés les moyens de l’ordinateur.Mais je pense qu’à ce stade, il s’agissait toujours de la même musique qui avait évolué dans un même temps, même si celle-ci avait subi des différences dans les jeux et les procédures musicales. C’était la même chose, c’est-à-dire le temps de l’évolution d’une situation. On pourrait parler alors d’un temps simplement déduit d’un autre (comme par exemple les variations sur un thème de…, les paraphrases…, les transcriptions instrumentales, etc.)
Et l’on pourrait aussi parler d’un temps évolutif pour le parcours organologique du clavier qui, de l’épinette ou du clavecin, a évolué vers le pianoforte et le synthétiseur ou bien pour l’enregistrement des sons concrets et réalistes par le microphone et leur écoute sur plusieurs haut-parleurs s’adjoignant à leur tour un son délivré par des générateurs électroniques puis par les manipulations de l’ordinateur. Ainsi c’était une musique qui se continuait dans une aventure s’enrichissant de la technologie.
Pour moi, l’oeuvre revisitée avec un temps de réflexion, qui apporte à celle-ci un autre regard, quelle qu’en soit la nature, est celle qui obéit à un temps différé. Lorsque la vidéographie m’est apparue dans mon champs de vision électroacoustique, j’ai bien vu, (bien évidemment, comme nombre d’autres compositeurs), que cela pouvait apporter un plus. Et j’ai senti alors, qu’il me manquait l’image et les mots.
Je sais bien que la musique destinée aux haut-parleurs est une musique d’images et de transparence (comme le cinéma) mais je parle ici de l’image visuelle qui intervenait avec sa propre force et sa propre déformation aux côtés de la musique électroacoustique. Le mot n’était jusqu’à présent que peu de chose, comme par exemple la lecture ordinaire d’un texte écrit ou la voix synchronique des comédiens sur un film étranger, etc. Toutefois, à partir de la vidéographie, le mot a pris une tout autre consistance. Il s’est mis à bouger malgré le temps nécessaire à la compréhension du texte, à se mouvoir comme le faisait déjà la musique et l’image. Le mot était devenu une image en danse, extrapolant son rôle simple de medium.
Ainsi, un temps différent ne m’est apparu seulement qu’après la maturation des oeuvres musicales, qu’avec leur confrontation avec les mots-image dans une véritable écriture croisée. Pour me situer et me différencier, il m’a fallu donner un nouveau terme pour définir le croisement de cette écriture, à laquelle j’ai donné celui de Fable musicale. On connait l’origine de la fable dont je rappellerai le sens ci-après.
Il y a eu donc un temps réel que jai transformé, sur la fin de mon expérience de compositeur, en temps différé. Le temps des mots vidéographiques étant venu, j’ai commencé à écrire une poésie correspondant à l’acte musical de mes pièces, que celles-ci soient vierges de texte ou qu’il y figure un texte dit et inscrit sur la bande. Mais tout ceci n’exclut pas d’écouter mes pièces dans leur format d’origine, encore que certaines d’entre elles ont pu évoluer en sens (texte antirrhétique ou de réfutation de ce que la musique pouvait laisser entendre, comme pour la « Messe aux oiseaux » par exemple).
J’ajouterai que je préfère les faire entendre sous cette nouvelle forme dont je donnais la définition en 2006 : « Quant à la notion de fable, il en existe deux sens : l’un, comme matériau réaliste avant qu’il ne devienne vraiment musical, à l’image de la Fable grecque représentant la fiction mythologique connue à partir de laquelle s’est formé peu à peu le théâtre ; l’autre, à la fois comme structure du signifié et du signifiant de la fable musicale (musique sans ou avec texte ainsi que poèmes et dessins la mettant en perspective) ».
Jacques Lejeune, 8 octobre 2013
Dieter KAUFMANN
Temps réel-temps différé
À proprement parler, toute musique notée est en temps différé. On ne l‘entend que plus tard, lorsqu’elle est exécutée par des interprètes. La musique électroacoustique, par contre, est dès le début en temps réel, au moins pour son compositeur. Il peut entendre immédiatement ce qu‘il fait. Comme le sculpteur ou comme le peintre, il travaille directement sur sa matière, le son. Ce contrôle immédiat en studio demande une oreille attentive. Un compositeur de musique écrite, lui, peut suivre son imagination en se basant sur les expériences qu‘il a faites avec des pièces interprétées plus tôt. Ainsi Beethoven – presque sourd – pouvait créer grâce à sa mémoire.
De ce fait, le travail acousmatique peut servir à toute sorte de compositeurs comme une « école d‘écoute », même s’ils ne souhaitent pas quitter le chemin de la musique écrite après avoir fait cette expérience.
Avec la révolution numérique, la situation a changé : les ordinateurs du début avaient besoin d’un certain laps de temps pour calculer le processus indiqué par le compositeur. Ce retard signifiait pour le compositeur un retour à la partition, à une sorte de plan, comme c‘est l‘usage en architecture, donc un retour au temps différé, avec en plus la nécessité d‘apprendre les bases des théories de la programmation. Ce fut une période assez courte dans le cas de la musique sur support. En 1978, j‘ai travaillé à Paris avec le Syter du GRM en temps différé (« Le voyage au paradis ») et en 1994 à Marseille sur le Syter de GMEM en temps réel (« La mer »).Une autre situation se présente ensuite : le domaine de la musique mixée. Les instruments ou les voix sont en connexion avec des manipulations interactives en direct. C’est le« live-processing ». Le compositeur est l‘interprète qui déclenche divers programmes qui viennent moduler son jeu ; une solide connaissance de la programmation avant que le premier son ne devienne audible est donc nécessaire. Il faut alors une partition écrite, pour le musicien qui joue et pour le technicien qui règle le processus électronique. Si l’on compare la projection des œuvres acousmatiques sur support avec le cinéma, on peut placer l‘interprétation des œuvres live-électroniques dans le domaine « instrumental ».
C‘est là, où l’« art acousmatique » et la« musique instrumentale » se rejoignent. On comprend alors que l‘art acousmatique, la vraie invention du 20eme siècle, ait de telles difficultés à être acceptée par le public des concerts traditionnels. On peut néanmoins se consoler par le fait, qu‘il a aussi fallu 50 ans au cinéma pour trouver sa place dans la société. Il faut de la patience pour familiariser ce « cinéma pour l‘oreille » avec la société, tellement fixée sur les aspects visuels.
Dieter Kaufmann, 15 octobre 2013
Patrick ROUDIER
Enseigner quels gestes, transmettre quels répertoires ?
Au cours de mes cinq premières années de travail au Conservatoire de Nîmes, j’ai donné un cours hebdomadaire de pratiques collectives, d’une durée de deux fois trois heures en quatrième année. Mon projet étant d’enseigner la création musicale en regard des désirs et des compétences musicales de mes élèves. Ce cours a donné naissance à un groupe d’intervention musicale à géométrie variable. Expérimentation commune sur ordinateurs portables et surfaces de contrôles pratiquées selon des modes d’action issus en droite ligne de la transmission des répertoires des musiques électroacoustiques. Des instruments traditionnels, ceux dont certains de mes élèves avaient la pratique, y ont aussi été associés. Le travail a porté sur les possibilités de production expérimentale de substances, séquences, formes musicales et, bien entendu, sur leur reproduction en situation de concert.
L’objet de cet atelier a toujours été pour moi la création de projets personnels mis en oeuvre par un compositeur issu de l’ensemble et lui-même interprète de son propre projet ; et qu’il devienne par la suite l’interprète du projet d’un autre compositeur issu lui-même de l’ensemble. Selon le principe de la collégialité, c’est-à-dire par une gestion collective des problèmes de jeu, d’équilibre, de sonorité, d’écriture.
Deux chantiers se sont ouverts simultanément : la maîtrise de l’acoustique de l’ensemble – l’orchestration des projets – et sa limitation en nombre d’intervenants – selon les principes de la musique de chambre, c’est-à-dire clarté et transparence.
Comme il s’agit de compositions originales, il est nécessaire que chaque pièce soit identique à elle- même selon ses diverses présentations. Voir, dans l’idéal, qu’elle puisse être reprise par des interprètes différents sans n’aucunement être altérée dans ses significations musicales. Lorsqu’en amont je faisais allusion aux compétences musicales de mes élèves, je voulais signifier qu’il m’a fallu initier ce projet avec des musiciens ne maîtrisant pas la théorie de la musique, c’est-à-dire le solfège et l’écriture. Mais des musiciens qui, années après années, devenaient experts dans le détournement de logiciels dédiés à la production de musiques électroniques idiomatiques (Live Ableton, Max for Live), les forgeant en outils de création de musiques électroacoustiques savantes. Deux petites questions en incidente : l’idée de musique absolue pèserait-elle encore sur nos enseignements ? Serions-nous devenus les (petits) maîtres des musiques inactuelles ?
Il nous fallait donc travailler uniquement sur la mémorisation, sans nous appuyer sur les modes de notations à l’oeuvre dans la musique contemporaine. Cela signifiait une mise en mémoire totale des différents paramètres du jeu et de leurs interactions. Ce qui, pour une pièce de dix minutes, représente, plus les projets se sont affinés, la prise en charge individuelle d’une centaine de matériaux, contrôles et traitements reproductibles, à quoi s’ajoute la mise en place collective de plusieurs dizaines de points de synchronismes.
Je me suis souvenu bien évidemment de musiques d’autres traditions que la nôtre, celles de Bali et de Java plus particulièrement, qui constituent un immense corpus de centaines de polyphonies mémorisées. Ce que la mémoire joue pour un gamelang de 32 musiciens peut s’importer dans un trio de musique électroacoustique, même dans le cadre des pratiques amateurs de nos Conservatoires. Mais j’ai surtout puisé dans mon histoire personnelle de compositeur et d’enseignant pour la danse : voilà la chorégraphie, un art majeur dans le cadre de la tradition occidentale, dont la performance n’est pas assujettie aux principes de la notation.
Mise en place exigeante dans le temps et dans l’espace, qu’elle soit chorale ou totalement « polyphonique » si l’on peut dire, une chorégraphie demande au danseur des centaines de points de synchronismes. Une partition des temps et des espaces ancrée profondément dans le corps. Polyphonies mémorisées, espace-temps vécu corporellement, voilà ce vers quoi cet atelier s’est très progressivement ouvert. Je suis assez heureux de constater que la double conscience du métissage et de l’hybridation – comme si nous l’avions perdue -réponde de pratiques musicales qui ne semblaient, à priori, relever que de la subjectivité et de l’émotion. Ce qui se trouve à la source de ce qui se joue ici c’est la pratique des jeux musicaux dans le cadre ce que l’on nomme, en musique électroacoustique, la séquence-jeu. Quelques repères entre autres : Variations pour une porte et un soupir de Pierre Henry, Mikrophonie I de Karlheinz Stockhausen, Etudes aux modulations de Guy Reibel. Soit des séquences-jeu pour sons fixés sur support, dans le cas des Variations ; une partition totalement fixée pour dispositif électroacoustique utopiquement maîtrisable, dans l’exemple de Mikrophonie I ; les Etudes alternant quant à elles des séquences-jeu de sons fixés et une réalisation, un mixage ouvert sur magnétophone multipiste à idéalement projeter dans l’espace. Pour ce qui est des musiques de haut-parleurs, la séquence-jeu a toujours constitué une sorte de point aveugle: ni création musicale instantanée, puisque toujours à retailler par toute la troupe des techniques d’écriture électroacoustique, une pièce d’étoffe éternellement retouchée ; ni surtout pas ces fragments de matériaux échantillonnés, aisément fragmentés mais fragmentaires par inconvénient, à la manière de ces échelles de fréquences et collections de timbres de la musique électronique d’antan. Tache aveugle elle l’est certainement parce que toute séquence-jeu se mesure à cette dimension que l’on appelle haptique, celle qui par définition concerne le sens du toucher. Celle qui, comme une deuxième peau, nous éprouve par le toucher. Séquence-jeu mon amour, ces gestes érotiques si grandement absents de nos musiques contemporaines. Pour boucler la boucle, je dirais que je ne peux transmettre à mes étudiants que les gestes qui nous trahissent. Déjà au Conservatoire en 1980, j’étais totalement impliqué dans un quatuor de musique composée, jouée et improvisée, Partiels, dont les autres membres étaient Eric Daubresse, Olivier Ducatel et Augusto Mannis. Même si le studio me fascinait par sa grande soumission aux images symboliques et les gardiens du temple de l’acousmatique m’ont assez reproché ce goût excessif pour la représentation – je ressentais le désir de phraser une musique d’ensemble totalement corporelle. À présent je me sens conforté dans la transmission de cet héritage. Et je dirige les oreilles de mes élèves vers le travail de musiciens d’aujourd’hui, l’ensemble Caravaggio en est la parfaite illustration, qui ont le goût pour cette aventure exemplaire.
Patrick Roudier, 28 octobre 2013
Christophe de COUDENHOVE
Musique et Espace » : une expérience musicale et pédagogique multicanal.
Origine, objectifs et contraintes :
A l’origine du spectacle « Musique et Espace », il y a une très belle salle de 1800 m2, aussi grande au sol que haute ; une salle utilisée par le Centre d’escalade Altissimo. La Mairie nous a proposé d’utiliser cette salle comme lieu de concert. Pour nous, c’est à dire pour la classe de composition et d’informatique musicale de Montpellier, le premier objectif de ce concert fut tout de suite trouvé : mettre en valeur la salle d’escalade par le son et la spatialisation du son. Durant l’élaboration du projet, l’utilisation de la vidéo, d’éclairages et d’interventions de grimpeurs ont été ajoutés à la musique. Une contrainte importante a orienté les méthodes de travail futures : nous ne disposerions que d’une seule journée dans la salle pour installer le son, la lumière, la vidéo, répéter la musique et la synchroniser avec l’escalade ; la journée devant se terminer par le spectacle en soirée. Le spectacle devrait durer 45’.
Dans les lignes qui vont suivre, nous n’allons pas parler de l’œuvre elle-même mais nous attacher à expliquer pourquoi nous avons fait le choix du support multicanal pour ce projet et quelles en ont été les conséquences dans le domaine de la spatialisation.
Les choix et leurs développements :
Compte tenu des caractéristiques de la salle et des contraintes temporelles décrites ci-dessus, nous avons choisi de réaliser une œuvre acousmatique multicanal entièrement composée et spatialisée à l’avance, fixée sur support. Il suffirait le jour J, de diffuser l’œuvre sans interprétation, moyennant quelques réglages d’équilibre sonore ne prenant pas trop de temps. Il aurait été risqué d’utiliser la traditionnelle stéréo interprétée sur acousmonium qui, pour une musique de 45’, aurait représenté une part trop importante de répétitions. C’était aussi l’occasion, en choisissant le multicanal d’essayer de penser l’œuvre acousmatique autrement et de mettre l’accent sur l’écriture dans l’espace, comme nous l’expliquerons plus loin. Cinq étudiants se sont partagés ce travail de composition.
Une « grille » spatiale tridimensionnelle de 16 points de diffusion :
Le support informatique audio que nous utilisions habituellement nous permettait assez facilement l’utilisation de 16 canaux indépendants; ce qui impliqua le nombre de points de diffusion à disposer judicieusement dans la salle pour mettre en valeur ses dimensions, ses caractéristiques architecturales, ses caractéristiques sonores. 16 points ont été placés à des altitudes
différentes selon trois plans: 6 points au sol, donc au niveau du public, 6 points à 6 mètres au- dessus, et 4 points à 12 mètres au sommet de la salle. Cette « grille » spatiale une fois définie a constitué une donnée importante et omniprésente dans le travail de composition des étudiants.
La préfiguration en studio :
Il fallut alors imaginer une possibilité de préfiguration de l’espace 16 points dans le studio de composition qui ne possède que 6 enceintes. Bien que le Spat~ (Ircam) offre la possibilité de simuler n’importe quel espace avec n’importe quel nombre d’enceintes, nous avons préféré ne pas utiliser cette possibilité virtuelle un peu complexe à rendre correctement, et s’en tenir à une pragmatique conversion. Ce n’était pas parfait puisque cela ne tenait pas compte des altitudes différentes ni des distances entre haut-parleurs, mais ce système nous a tout de même permis de composer directement en 16 canaux et d’en rendre une bonne image sonore.
Une partition préalable de l’œuvre :
Un plan temporel découpé en 10 parties a été établi de prime abord, comportant des durées à respecter et les différentes thématiques à traiter. Ce plan temporel s’est peu à peu transformé en partition de construction de l’œuvre sur laquelle figurait en plus des éléments propres à écrire la musique, les interventions de la vidéo et des grimpeurs. Cette partition établie en amont de la réalisation de l’œuvre dans un travail de groupe, a permis ensuite de faire une répartition entre chaque étudiant : deux parties par étudiant pour lesquelles le compositeur avait toute liberté d’imagination en s’inspirant et en respectant les conventions de la partition commune.
Les étudiants étaient habitués à la composition en stéréo, voir en 4 ou 6 canaux pour certains ; il leur fallait maintenant adapter leurs méthodes de travail en pensant leur musique par rapport à la « grille » spatiale évoquée plus haut.
Spatialisation par points fixes et spatialisation mobile :
Pour la spatialisation des sons, nous leurs avons proposé d’imaginer leurs polyphonies selon deux méthodes : spatialisation par points fixes et spatialisation mobile entre points.
– La spatialisation par points fixes a été la méthode la plus facile à utiliser par les étudiants, car il suffisait d’imaginer de quel lieu de la grille spatiale serait diffusé telle couche ou voix de polyphonie, tel son isolé, telle séquence. Cette méthode a favorisé la superposition de couches sonores et a facilité leur différenciation grâce à leur séparation dans l’espace de diffusion. Elle a incité à oser plus de mélanges sonores, plus de polyphonie car le travail de séparation virtuel qu’il aurait fallu faire en stéréo pour obtenir un résultat clair a été en partie simplifié grâce à l’éloignement entre les enceintes. Ceci garantissait dans la plupart des cas une séparation « naturelle » des sons.
– Un espace tel que celui dont nous avons disposé, avec ses 30 m de large, 20 m de long et ses 12 m de hauteur a excité l’imagination des étudiants vers la création de mouvements spatiaux entre points de diffusion: cercles, spirales, mouvements de bas en haut, traversées d’espace, chutes, déplacements aléatoires, polyphonies de mouvements, vitesse de déplacement variable, etc. Pour de tels mouvements, l’utilisation du panoramique stéréo s’avérait insuffisante. Nous avons donc eu recours au Spat~ (Ircam) et à la programmation des mouvements en Max.
L’outil de spatialisation (Spat~) et ses possibilités polyphoniques:
Le Spat~ permet de faire bouger plusieurs sources sonores à la fois, dans n’importe quelle représentation d’un espace donné. Il suffit donc de lui indiquer la disposition des enceintes en distance réelle par rapport à un point central et de contrôler les objets permettant de faire bouger une ou plusieurs sources à la fois. Pouvoir contrôler plusieurs sources sonores en même temps a représenté un gain de temps considérable pour les étudiants puisque qu’il évite les nombreux pré- mixages qu’il aurait fallu faire à chaque fois si l’outil ne pouvait gérer la polyphonie. En effet, notons bien que le moindre mouvement spatial d’une source sonore mono à travers une grille de 16 canaux sollicite la plupart du temps la totalité des canaux ; surtout lorsque le mouvement traverse un espace virtuel, et génère de fait un fichier son 16 pistes !
La description des mouvements dans l’espace s’est effectuée par programmation en Max, en contrôlant les coordonnées de la source. A ce stade, pour éviter la programmation, il aurait été possible de fournir à l’étudiant un système de contrôle par contrôleurs physiques, MIDI ou autres, mais nous ne l’avons pas fait par manque de pratique dans ce domaine. Mais l’intérêt de la programmation est qu’elle constitue une sorte d’écriture dont la trace peut être affinée, corrigée et variée.
Une expérience acousmatique nouvelle :
La plus part des étudiants ont utilisé les deux méthodes de spatialisation ensemble : l’une et l’autre permettaient de caractériser leurs idées musicales. Elles servaient également l’objectif premier de l’œuvre : mettre en valeur la salle par le son et sa spatialisation. Cet objectif couplé à l’utilisation du multicanal a incité l’étudiant à prendre conscience de la valeur compositionnelle de la notion d’espace en musique acousmatique ; également du lien qu’entretient le mouvement spatial avec l’idée musicale. Plus qu’une simple alternative à la stéréo interprétée sur acousmonium, le multicanal dans ce projet a été le support d’une nouvelle manière de penser la musique acousmatique : penser le son en même temps que son lieu de diffusion. Si, dans le cas de l’utilisation classique de l’acousmonium on peut parler « d’orchestration » du son, dans le cadre de notre projet, nous pouvons évoquer une « mise en scène » du son grâce aux possibilités du multicanal.
Christophe de Coudenhove, 1er novembre 2013
Michel CHION
Que la musique concrète n’est pas une musique en « temps différé » : contre un dualisme
La question temps réel/temps différé appliquée à la musique me semble pouvoir être traitée sur deux niveaux bien distincts : le fond de la question, et le fait historique d’une distinction que certains posent depuis peu entre des musiques qui, entre « réel » et « différé », relèveraient de l’un ou de l’autre; mais si l’on mélange ces niveaux, elle ne veut plus rien dire.
Sur le fond, le « temps réel » (comme son corollaire, le « temps différé ») est une notion qui me semble philosophiquement absurde ou en tout cas problématique (le temps qui est passage, écoulement, peut-il être le moins du monde « réel » , et pour qui ?) Mais du point de vue de l’histoire des termes musicaux, la dichotomie réel/différé est apparue à une époque bien précise où elle venait remplir une certaine fonction, en l’occurrence de valorisation historique de démarches dites « live », qui, se trouvant apparemment fragiles, ont voulu se légitimer sur le dos d’une autre démarche, celle de la musique sur support de fixation, que j’appelle concrète. C’est par cet aspect historique que je commencerai.
Vers les années 70 plus particulièrement se sont développées en effet des techniques de création électroacoustique et éventuellement de transformation du son devant le public : ce qu’on a appelé la « live electronic music ». A ce titre, je leur ai fait une place dans mes différents écrits (ouvrages, articles, entrées de dictionnaire) de l’époque sur la musique électroacoustique, place relativement équilibrée par rapport à la musique sur support, qu’on désignait à l’époque du même terme.
Or, dans les années 70, un centre de recherche en France fut créé à grands frais et à grand bruit, sous le nom d’Ircam, et annonça qu’il allait enfin attaquer avec sérieux les domaines de recherche, et notamment de lutherie, que selon le fondateur de cet institut, Pierre Boulez , les centres existants n’avaient pas su aborder avec les bons concepts et les bons outils. Un département électroacoustique fut confié à Luciano Berio, que j’interviewai en 1975 à l’époque où l’IRCAM annonçait son projet (j’étais encore membre du GRM que je devais quitter en 1976). Pour Berio, l’idée était claire : on n’aurait bientôt plus besoin de support.
Dans son esprit, et plus tard dans celui de nombre de compositeurs passés par l’IRCAM, les gens qui travaillaient sur bande magnétique (le support le plus courant à l’époque) ne le faisaient que parce qu’ils n’avaient pas encore les moyens de produire les mêmes effets en « temps réel » devant le public. Pour eux, il ne fallait plus que quelques années pour, avec les possibilités nouvelles qu’amenait l’ordinateur, proposer la même chose en direct.
Je n’y croyais, et je n’y crois toujours pas. Mais je dois constater que dans beaucoup d’endroits institutionnels, la musique sur support, qu’on l’appelle « acousmatique » ou « concrète » (c’est la même) est marginalisée et traitée comme survivance archaïque d’une époque où on n’aurait pas pu encore obtenir les mêmes effets en « temps réel ».
Pour illustrer le caractère aberrant de cette représentation de la musique sur support, comme relevant d’un « temps différé » je prends souvent l’exemple de mon Requiem, une œuvre composée pendant l’automne 1972 et l’hiver 1972-73. Même aujourd’hui en 2013, c’est-à-dire quarante ans plus tard, je ne pourrai faire la pièce en direct devant le public, fût-ce avec le matériel dernier cri. Pourquoi ? Pour une foule de raisons.
D’abord, certaines textures sonores qu’on y entend ont demandé, pour être obtenues, plusieurs phases de copies répétées et nombreuses sur différents supports, amenant – puisqu’il s’agissait de copies sur bande – une certaine usure du son, un certain tremblé. Je partais de sons électroniques que je créais, mais dont ensuite je cassais la définition, un peu comme on assouplit un tissu, en le faisant « vieillir » par différentes techniques. Et certains timbres de voix proviennent de « tournages sonores » effectués à différents moments, selon les circonstances. Par exemple, un matin de novembre, je me suis réveillé avec une belle laryngite et j’ai eu l’idée d’utiliser cette voix caverneuse pour m’enregistrer disant le premier « Requiem » entendu dans l’œuvre. Celui qui écoute l’œuvre n’entend pas le seul reportage en différé d’une matinée de novembre 1972. Il entend le résultat d’un tournage sonore, qui a été répété, monté, produit pour l’enregistrement (la
« fixation », comme je préfère dire), puis raccourci, monté, assemblé avec d’autres sons produits à d’autres moments. Enfin, le Requiem débute par une attaque brutale « aux ciseaux » obtenue par coupe dans un son électronique d’abord produit par moi au studio.
Un effet aussi simple que cette attaque instantanée, dans un son que j’avais préalablement généré, me paraît impossible à obtenir et à maîtriser “en direct”, devant le public. Ou bien il faudra se donner beaucoup de mal pour « imiter » l’effet d’une coupe cut sur support.
Avant la cinématographie et la phonographie, il était impossible d’imaginer l’univers du montage, des enchaînements subits. Une fois que sont apparus certains effets avec la pellicule, la bande magnétique, le trucage vidéo, l’enregistrement numérique, etc…, il est possible de chercher à obtenir en “direct”, comme disent certains, les mêmes effets, venus du support même, sans les fixer sur un support, mais dans la plupart des cas, cela me parait vain. Les sommes d’argent importantes (à l’échelle du budget consacré à la recherche musicale) qui ont été dépensées pour construire des machines de traitement du son en temps réel ou en très léger différé (du genre cueillir en “direct” le son produit par un violoniste et le renvoyer dans la salle totalement transformé) qui viseraient à imiter ce qu’on fait dans la musique concrète, me semblent avoir été gaspillées: les sons produits ainsi sont souvent très mauvais, et beaucoup moins intéressants – je pense par exemple à Répons, de Pierre Boulez.
Au reste, la musique concrète ne consiste pas spécialement à “transformer” des sons, mais à les créer pour la fixation et à les monter (éventuellement à les mélanger), en passant par des étapes qui peuvent être très espacées. Dans certains cas, au contraire, il y a une seule étape, et il ne s’agit alors nullement de sons « traités », mais de sons créés lors d’un tournage sonore plus ou moins préparé, et ensuite remontés. Le premier mouvement de mes Dix études de musique concrète a été créé en une seule fois un jour de 1987, lors d’un tournage sonore, devant un seul micro stéréophonique, j’’y ai fait très peu de montage et aucune transformation. Ce n’était pas un moment spontané: j’avais déjà testé mes sources sonores et fait des essais.
A l’inverse, certains des sons que l’on entend dans mes deux dernières pièces, La Vie en prose (créée en 2010) et la Deuxième symphonie (2012) résultent de phases de tournage sonore, de remodelage en studio et de mixage qui sont parfois très distantes dans le temps, étalées sur quatre décennies au moins: je travaille à cet égard comme certains peintres ou certains écrivains. Je demande alors : de laquelle de ces nombreuses phases le son final que l’on entend est-il l’écho “différé”? D’aucune, puisqu’il suppose d’une part la sono-fixation, et d’autre part puisque ces phases correspondent à une longue recherche.
Lors d’un Séminaire du GRM, un membre du groupe moquait mon idée de « son fixé » en lançant comme une bonne blague : « et les silences dans tes œuvres, ils sont fixés eux aussi ? » Il ne croyait pas si bien dire : bien sûr, ils sont calibrés à la durée exacte ; parfois je m’arrange pour qu’on y entende le bruit de fond du support, d’autres fois, ce qu’on appelle en anglais un « room tone », le bruit moléculaire du lieu, d’autres fois encore, le signal s’interrompt complètement. Et enfin, leur durée est exactement voulue. Un bon monteur de cinéma sait la valeur d’un fondu au noir bien calculé, d une coupe, d’un plan court. C’est cela que m’offre aussi la musique concrète, parce que musique de sons fixés : des silences précis et d’une qualité sonore précise.
Il y a certes une densité propre à l’émission d’un son de violon en direct, je suis bien d’accord. Mais je suis plus sceptique quand le son doit passer par « différents « tuyaux » de traitement en direct dont il ressort souvent insipide, flou, mou (cas, je l’ai dit, de tant d’œuvres avec « traitement en temps réel »). Mais il y a aussi une densité propre à un bon son fixé de musique concrète. Où est le temps réel, au sens de temps vivant ? Il est dans les deux cas. Je réalise en passant par la fixation une musique qui crée son propre temps, un temps qu’on peut dire si l’on veut « réel ».
Ainsi, la musique concrète, d’autres l’appellent acousmatique mais c’est la même, n’a pas plus à voir avec la notion de différé que le cinéma n’’est du théâtre en différé, qu’il n’est qu’une simple « retransmission ».
Le fait qu’il y ait une “musique de sons fixés” ne veut pas dire que ce soit dans le cadre d’un dualisme fixé/ pas fixé, aussi faux que le dualisme vers/prose (la prose ne serait que du non
versifié ? Absurde !) ou le dualisme parlé/ chanté (alors qu’il y a aussi le déclamé, le récité, le hurlé, le recto tono, etc…), et que toutes les autres musiques appartiendraient à un même domaine, celui de la musique en temps réel. Les autres musiques que la musique concrète, sont aussi différentes entre elles que les pays non-européens ou non sud-américains le sont entre eux:
Ce sont bien sûr les medias de la radio et de la télévision qui ont amené cette dichotomie direct/différé. Nombre d’émissions, aux débuts de ces media étaient faites en direct. Faute de supports pratiques et de qualité pour enregistrer, monter, mixer, etc…. Par la suite, on a continué à faire du direct… en différé. Si j’écoute l’émission-débat Le Masque et la Plume le dimanche soir sur France-Inter à 20 heures, je sais qu’elle a été enregistrée en semaine, et montée le moins possible (on entend simplement de temps en temps quelques points de montage, étudiés pour n’être perceptibles que par des professionnels). J’écoute donc l’émission en direct par rapport à son heure normale de programmation, mais en différé par rapport à la circonstance de son enregistrement. Ceux qui l’écoutent en « podcast » ont le sentiment de l’écouter « en différé » par rapport à la grille de programmation, mais s’ils s’intéressent à l’émission et la suivent, ils y ressentent quelque chose de vivant et de en temps réel, celui-ci fût-il recréé.
La question est : c’est quoi le « temps réel » , en musique ? A mon avis, il n’y en a qu’un, et définitif, par définition irréversible, ayant donc les pleines propriétés du temps : c’est celui de mon attention à l’œuvre, ou au spectacle, ce jour-là, ce moment-là où je l’écoute.
Si je vais voir le Ring de Wagner à l’Opéra-Bastille, je sais bien que la partition a été écrite au XIXe siècle, que les interprètes sont censés la respecter – et que les chanteurs doivent être très présents au son qu’ils produisent, la distraction ne leur est pas permise. Mais je sais aussi que parmi les musiciens de l’orchestre, il en est beaucoup qui, ayant souvent joué l’œuvre, ont l’esprit ailleurs, tout en ayant le corps présent, et fonctionnent en pilotage automatique. Ne parlons pas du public, trop souvent constitué de gens qui écoutent moins qu’ils ne réécoutent et qui affichent de manière parfois gênante leur manque de concentration, de présence à ce qui se passe.
Le temps réel, s’il y en a un, est celui où il y a une écoute présente, même si c’est l’écoute d’un enregistrement.
Pour ma part, j’ai une grande difficulté à vivre « dans le présent », même si tout le monde dit que c’est l’idéal, voire la norme ( « Sois de ton temps, vis l’instant », etc.) Je construis donc des œuvres de sons fixés parfois longues où le temps est structuré de façon à ce que pendant quelques minutes, souvent au milieu ou à la fin de la pièce en question, je me sente en harmonie avec le temps qui s’écoule, et vivant dans le pur présent. A ce moment-là, dans un autre sens que le sens courant, j’accède – et j’espère faire accéder l’auditeur, chez lui ou en concert – à ce « temps réel ».
Michel Chion, 5 novembre 2013
Alain Savouret
De la conjugaison du temps…
Depuis l’avènement de l’informatique, les deux locutions temps réel et temps différé sont passées dans les mœurs verbales du domaine couvrant la réalisation musicale à l’aide des outils d’aujourd’hui, où, en bout de chaîne, le haut-parleur reste incontournable, peu ou prou. Chacune de ces locutions renvoie à des techniques et des esthétiques toutes plus singulières et défendables les unes que les autres selon les lieux, les temps et les âges des capitaines. C’est dire si un consensus national dans une perspective pédagogique reste vraisemblablement un vœu pieux. Et c’est tant mieux pour le droit à la différence ; mais à la condition me semble-t-il pour les apprenants praticiens, que chacun des mots impliqués soit plus ou moins recadré dans le temps « historique » et dans l’espace « géographique » par les tuteurs en charge de formation, et que les sources soient autant que faire se peut situées.
Bien sûr, la planète Internet est à la portée de toutes les bourses étudiantes, et dans ses nombreuses pages sur le sujet, elle y répond en partie, voire savamment, sur un plan disons informatif : tout est dit sur le real (hard ou soft) time, et sur le delayed time aussi. Celui qui veut approcher la pratique musicale « informatique » du bout des doigts peut s’en contenter, laptop sur les genoux. La M.A.O. sous toutes ses belles formes sait séduire : c’est une vraie déesse pour les uns ; et si c’est un dieu pour les autres, il se passera ce qui se passe souvent avec les dieux : on est trompé sur la marchandise.
Ainsi la traduction en français qui est faite de real time et delayed time mériterait un regard collectif et critique, si on veut bien en convenir. Par exemple, est-ce vraiment le temps qui est réel ou différé ? Et qu’est-ce que serait du « temps irréel » ? Ou bien encore, dans ce temps différé, qu’est-ce qui est reporté, en sursis? À quelle phase de la réalisation musicale correspond ce report? Est-ce seulement la date de l’effectuation publique de l’œuvre? Car le « temps » de l’œuvre dans le sens de sa « durée », de son effectuation temporelle concrète, a déjà été fixé en studio : c’est du temps déjà « digéré », pas différé. Ou bien alors, c’est « l’interprétation » à la console qui introduit un nouveau « temps », à qualifier pour bien le distinguer. À nouvel espace, nouveau temps, répliquerait Einstein.
D’ailleurs, concernant le temps réel, s’agit-il du temps de calcul d’un traitement (qui va maintenant plus vite que la durée du son qu’on veut traiter)? Ou bien, moins technologique, serait-il plus fertile de faire une approche philosophique du temps immédiat ou du temps instantané ? En quoi ces deux-là « diffèreraient », ou non, du temps réel et des pratiques musicales auxquelles on peut le rattacher ?
De même, concernant le temps différé, ce temps repoussé, reporté : est-ce pour des raisons d’insuffisance technologique, de lenteur ou de vétusté programmée inhérente aux moyens utilisés ? Ou bien, n’y a-t-il pas à s’interroger sur la nature profonde de l’acte électroacoustique artistique inscrit authentiquement et durablement sur un support par son auteur. Il peut s’agir, pour certains dont je suis, d’une « inscripture » voulue de référence, définitive, une fixation d’exigences subtiles « incontrôlables », voire inanalysables, ressenties impérativement au moment du mixage final par exemple; j’y reviendrai. Et quels que soient les modes et outils de diffusion de l’œuvre qui autoriseront son effectuation publique ultérieure (sauf très grave « més-interprétation » à la console de diffusion), comme pour le geste du peintre sur la toile, l’émotion du geste ressenti « à l’instant » par le compositeur dans son studio (son repère alchimique) restera « tel que », transportable dans le temps et dans l’espace. Magnifique paradoxe de l’instant qui n’en finit pas.
On prend trop vite dans notre société moderne des vessies pour des lanternes, un mot pour un autre, ajoutant de la confusion à la confusion internationale, souvent pour ne pas rater le train en marche. Mais on ne gagne pas grand-chose à rester à la surface des mots ayant même pignon sur rue; le temps et l’espace ont été de grands sujets de réflexion et d’expérimentation au siècle vingtième, et les musiques pour haut-parleurs ont participé grandement au festin. Ne prenons pas trop vite du time pour du temps.
Bref, dès qu’on s’écarte un peu de l’opposition purement technique il y a de quoi émettre des réserves qui ne sont pas que lexicales quant au temps différé et au temps réel que beaucoup prennent pour le « p’tit nouveau » qui monte, new look, dans l’histoire. « Le temps réel n’est pas une panacée » dit Jean-Claude Risset dans son article « Temps et musique numérique » inclus dans l’ouvrage collectif « Le Temps en Musique Électroacoustique » (Ed. MNÉMOSYNE – Bourges, juin 2001) ; il conclut son article par : « La musique, art du temps, doit montrer la voie : le temps se travaille hors-temps »
Ce temps réel dans les musiques mêlant l’acoustique et l’électrique au XXe siècle, est-il en fait si nouveau cette histoire proche si on lui retire ses habits informatiques, si on le « dés- informatise » ? On pourrait constater, ne serait-ce que dans notre histoire contemporaine locale, franco-française pour résumer, que cela a toujours été un questionnement et des pratiques certes annexes voire clandestines, mais réitérés. N’hésitons pas à citer des expériences vécues, surtout celles dont on n’a que peu de chances d’en trouver les traces sur Internet (ou quand elles y figurent, elles sont bien souvent trop imprécises, et les amalgames sont monnaies courantes). Notre histoire regorge de ces tentatives technologiques pour par exemple « gagner du temps » ou « savoir mieux le prendre » dans la réalisation en studio, ou encore être actif ou asservi dans le « présent » de la diffusion en concert ; chacun peut alimenter et mettre à jour ce grand livre patrimonial, en plus et même au-delà des livres et articles spécialisés affichés docilement par Internet.
Car les marges sont souvent plus fertiles que la page centrale, l’abandon des routes secondaires au profit des autoroutes n’est pas sans conséquences malheureuses pour l’environnement humain. Et ces marges ne sont pas toujours parcourues avec pertinence, surtout si l’on veut se placer à hauteur d’une démarche expérimentale dont les musiques électroacoustiques sont issues. Par démarche expérimentale comprenons à la fois des aventures, des pensées, des outils, des techniques, des illusions et leurs contraires, des projets enthousiasmants et parfois leurs tristes rejets, qui tous débordent et de toute part le hardware informatique up to date et les systèmes y afférents… Edgar Varèse, notre grand ancien encore proche, n’aurait pas contredit cette proposition, il en a trop souffert.
Parce que, globalement, pour ce qui est du real time ou du delayed time ou de leur traduction docile, tout le monde se comprend, tout semble aller de soi. Mais à force de prendre des raccourcis, d’abréger par commodité la langue française pour se fondre dans le bien séant planétaire dominant, on finit par amputer : ce qui est toujours injuste et cruel, en particulier pour une langue (jeu de mot « saignant » on en conviendra).
Dans le désordre, chapitrons maintenant quelques remarques de mon point de vue « local » et singulier, qui demanderaient pour le moins approfondissement. Je continuerai d’employer les locutions et notions temps réel et temps différé, écrites de cette manière, comme si tout le monde était d’accord sur ce qu’elles signifient, mais, comme tout le monde, je ne cesserai de me demander ce qui se cache derrière ces portes entr’ouvertes en cette occasion, et que je n’aurais point vu.
Pour amorcer les réflexions disons que :
1) temps réel renvoie à de l’effectuation de musique (audio-numérique) « jouée » en direct et en interactivité avec l’environnement, comme la musique instrumentale ; c’est la « présentation » publique d’une « variation » possible, parmi d’autres, de ce que peut produire un dispositif conçu, mis au point, pré-règlé en amont par son auteur. Pour celui- ci, la « satisfaction maximale du devoir accompli » est censée être éprouvée en aval et sera renouvelée à chaque « présentation ».
2) temps différé renverrait à une « re-présentation » d’une effectuation de musique définitivement inscrite sur support après avoir été l’objet de multiples « tentatives » en studio, sur un mode compositionnel : le compositeur est son propre environnement. Pour celui-ci, la « satisfaction maximale du devoir accompli » est censée être éprouvée, sans retour possible, dans cet amont décrit. En aval, la « re-présentation » ne participera que faiblement, en plus ou en moins, à la satisfaction évoquée.
Reste donc à tourner autour de ces propositions, un peu extrémisées, pour les mettre à l’épreuve.
I – Conjugaisons à réviser
Par exemple, partons de définitions du système temps réel récoltées ici ou là : il y a « système temps réel quand il y a le « contrôle d’un procédé physique à une vitesse adaptée à l’évolution du procédé contrôlé » (j’ai perdu la source de cette citation). Ou bien encore (Ministère de la Culture) : « il s’agit d’un mode de traitement des données à un instant quelconque et l’obtention immédiate des résultats ». Obtention instantanée serait plus juste : im-médiat suppose « sans intermédiaire » ; or, si on s’en tenait à l’utilisation d’un simple laptop pour une performance musicale en direct (cas minimaliste), il y a bien du hardware plus ou moins sophistiqué entre la décision mentale du musicien et l’effectuation musicale qu’il génère, au doigt, ou parfois à l’œil. C’est vrai aussi avec un instrument acoustique, mais les performances ne sont pas encore comparables : la « vieille » vélocité instrumentale (plusieurs siècles de mise au point) a encore de beaux jours devant elle… En effet, un système temps réel doit donc être sensible, dans l’absolu, à l’environnement lui-même en évolution ; et une réponse inférieure à 0,5 seconde en interaction avec cet environnement lui-même en évolution n’est pas à la portée de n’importe quelle pratique en real hard time : il s’agit bien d’être en prise directe depuis le laptop avec « ce qui est en train d’être ». Jouer en temps réel c’est jouer « effectivement » la durée du son, chaque instant de cette durée, sans décrochage. Que le contexte soit celui d’une prestation scénique impromptue, improvisée, ou celui d’un paysage – urbain ou rural – à « habiter » musicalement, une adéquation maximale aux instants non prévisibles est concevable pour l’oreille du musicien qui en a fait un peu l’apprentissage ; mais c’est ce qui se passe après que son doigt a enfoncé la touche du clavier qui peut poser problème.
Qu’est-ce qui est déclenché ? À quelle vitesse peut-il en avoir le contrôle ? Est-ce que « déclencher » du sonore c’est « jouer » sensiblement avec ce dernier ? Ne passons pas sous silence l’expression « jouer sur la corde sensible » des êtres, elle ne perdure pas pour rien dans nos usages lexicaux. Dans le domaine de la sensation, déclencher ce n’est donc pas jouer ; j’évoquerai plus loin les différents comportements digitaux et les outils correspondants auxquels nous faisons appel dans l’acte d’effectuation musicale.
Pour entrer dans des comparaisons concrètes et expérimentées évoquons cette pratique musicale qui réponde à la lettre (pour l’esprit, ceci reste à discuter) au système temps réel défini plus haut: l’improvisation non-idiomatique (dite «libre»). Dans le cas de formations «mixtes» (instrumentistes acoustiques et joueurs de dispositifs de type « live-électronic » gérés par l’ordinateur, pour faire court) on peut apprécier la capacité de réponse interactive propre aux uns et aux autres. Dans cette pratique musicale collective (la plus « inventureuse » qui soit) l’effectuation doit être instantanée, et en meilleure adéquation possible à l’évolution parfois très rapide du « tout », un « tout » nommément « présent » dont le destin « futur » est éthiquement ignoré. Dans cette conjugaison au « présent » du temps, l’ordinateur souffre encore de trop de « possibles » ; ou alors son pilote est obligé de les réduire antérieurement à l’improvisation, il doit se « pré-parer » à toute éventualité. Il conjugue comme une sorte de « futur antérieur » d’états de musique dont l’adéquation instantanée n’est pas assurée: cela peut être dans les plus mauvais cas du « conditionnel…dépassé » : « j’aurais dû, plutôt que… ».
Tous les praticiens de la musique improvisée non-idiomatique, quels que soient leurs outils, ont pu apprécier des vitesses de répliques « adéquates » qui ne sont pas comparables parce qu’il ne s’agit pas du même temps : le temps réel informatique n’est pas, à ce jour, du « temps présent » instrumental. Il n’y a pas à coup sûr « le contrôle d’un procédé physique à une vitesse adaptée à l’évolution du procédé contrôlé ». Le doigt du violoniste pressant la corde n’a pas besoin d’intermédiaire pour effectuer la décision dudit violoniste, tant au niveau de la substance que de la forme sonore voulue à l’instant « t » : la décision et son effectuation la plus adéquate possible sont quasi simultanées. J’évoque ici un violoniste qui ne joue pas qu’avec ses doigts de la main gauche, je pense à un violoniste qui joue « vraiment » avec son archet… et son oreille ; il faut toujours relativiser.
Le doigt du musicien sur la touche de l’ordinateur ou sur un écran tactile, quelle que soit la vitesse électrique mise en branle, est déclencheur d’un intermédiaire programmé, « pré-paré », sans qu’au moment du « patch », la réalité sonore de l’instant d’intervention future puisse être prévisible (pré-audible). Dans le terme « pré-paré », j’effleure au passage l’expression « paré au plus pressé », elle est ici d’actualité. L’adéquation, dans le meilleur des cas, même si le musicien est un virtuose de son instrument (pseudo-instrument ?), sera relative ; le plus souvent, « un certain temps » se déroulera pour que sa partie s’adapte au tout en train de se dérouler, à moins que ce dernier opte pour le mode de conjugaison « impérative » et demande aux comparses de s’adapter. C’est ce délai qui crée de nombreuses difficultés de jeu collectif dès que l’acoustique instrumental et le « numérique appliqué » tentent l’aventure commune de la libre improvisation : les deux univers ne tournent pas à la même vitesse.
Dans ce cas extrême de l’improvisation libre, sans pré-détermination structurelle, le « présent » et le « futur antérieur » ne feront bon ménage qu’au prix de beaucoup de concessions… que les improvisateurs instrumentistes n’acceptent pas toujours par ailleurs, mais ce n’est pas le sujet.
II – Retour sur le passé simple
La cohabitation entre temps réel et temps différé n’est pas neuve sous le soleil des musiques haut-parlantes: bien avant que l’informatique vienne bousculer le règne de l’analogique, « l’expression directe » dans le grand cadre des musiques électroacoustiques a été régulièrement visitée. J’en ferai un bref et partial, donc limité, historique.
Premier exemple dont je peux donc témoigner : la création d’une sorte d’atelier qui m’est confié en 1969, en tant qu’assistant de recherche au GRM. Pierre SCHAEFFER inaugure alors la première classe de musique électroacoustique (Musique fondamentale et appliquée à l’audiovisuel) au CNSMDP. L’idée partait d’une double envie de plusieurs stagiaires de l’époque (envie plus que partagée de ma part) : – 1) conserver le plaisir du geste instrumental et l’attitude de l’interprète « en représentation » – 2) mais mettre ce plaisir au service d’une sorte de musique électroacoustique en direct. Pour réaliser ce projet, on sautait les différentes et longues étapes de la réalisation-studio qui suivent la prise de son (le montage, le traitement, le mixage), mais on conservait collectivement cette méthodologie dès l’acte premier d’excitation d’un corps sonore devant le microphone. Chacun devait se penser comme une espèce de «voix de mixage» prête pour le mixage final qui se ferait collectivement «en direct», pourquoi pas publiquement.
Nous expérimentions de la «musique real time concrète»… «Concrète» très précisément puisque le point de départ en était la « prise de son concrète» telle qu’on la définissait à l’époque : utilisation de divers micros au plus près de la source, ainsi que des micros de contact utilisés comme un archet sur des corps sonores de tous types. Mais ces actes, on les prolongeait dans du « temps long improvisé », collectif, sans les ruptures et arrêts nécessaires aux prises de sons habituelles. Le projet était de faire un morceau de musique concrète en temps réel, à « consommation » audible immédiate, sur place. Nous restions hors cabine, dans le studio d’enregistrement (le 52 du centre Bourdan principalement) équipé de haut-parleurs, préparant sans le savoir des prestations publiques qui ne tardèrent pas à arriver. L’occasion m’était donnée peu après de créer ma première pièce de concert, qui sera, dans la foulée de l’expérience, une pièce qu’on disait «mixte», pour improvisateurs amplifiés et bande magnétique. Ce sera, en 1969, « Kiosque », longue cosmogonie créée dans le cadre de la « Nuit blanche » du GRM, puis des SMIP, avec, pour interprètes, quelques-uns des participants à l’atelier dont j’avais alors la responsabilité administrative (Boeswillwald, Lejeune, Echarte, Vandenbogaerde, Clozier entre autres). Très rapidement à la suite du concert est né le «Groupe d’Expression Direct de Chateauvallon», nom proposé par Pierre Boeswillwald (notre contact avec le centre culturel de Chateauvallon qui nous «parraina») et qui réunissait Clozier, Lejeune et moi-même. Le groupe sera sollicité plusieurs fois dans des manifestations publiques du GRM : le temps réel pris en charge par des interprètes sur scène allait dès lors co-habiter dans certains concerts en alternance avec le temps différé, pris en charge par le dispositif électroacoustique classique (lecteur de support/console/haut-parleurs).
D’autres groupes collaboreront avec le GRM après le G.E.D.Chateauvallon. Pour mémoire, citons OPUS « N », incorporant des instruments traditionnels amplifiés (claviers électroniques pour ma part : Farfisa, Clavinet Honer) et, en plus de son violon et de Hydrophilus, le premier synthétiseur joué en direct et sur scène par Christian Clozier: le fameux VCS 3 de la société EMS de Zinoviev. Des invités privilégiés sont systématiquement présents, comme Pierre Boeswillwald (avec son Polycorps Électromécanique) ou encore Philippe Maté et autres musiciens venant du free- jazz. Plus tard la relève sera assurée au sein du GRM par le TRIO GRM assez vite renommé Trio TM +, réunissant Laurent Cuniot, Denis Dufour, Yann Geslin.
Ainsi, progressivement, le son concret en direct est abandonné au profit du son électrique de synthèse, les instruments manufacturés s’imposent.
On ne peut pas passer historiquement sous silence qu’une sorte de préoccupation quant au temps réel était déjà à l’honneur au temps du «pupitre de relief» conçu par Jacques Poullin, au carrefour des années 49/50 ; et c’est bien sûr un chef d’orchestre (l’éclairé Maurice Le Roux) qui devra, fonction oblige, manifester la prise en main du temps réel appliqué à l’espace du théâtre de l’Empire (« Orphée 51 ou toute la lyre »).
De même dès le début des années 60, ce sera l’émergence de musiques qui manifesteront de la part de leurs auteurs le besoin d’expérimenter l’hybridité d’une sorte de temps réel mêlé à du temps différé. Les mauvaises langues de l’époque (traduisons : « les mauvaises oreilles ») diront qu’il s’agissait de joindre l’utile (l’électroacoustique) à l’agréable (les instrumentistes) ; c’était bien mal « entendre » la nécessité de confronter deux modes d’occupation du temps et de l’espace qui « s’étrangeaient » comme on disait au XIXe siècle. Evidemment, quoi de plus hétéroclite que du son haut-parlant venant rustiquement (du carton agité) s’immiscer dans du son instrumental de plusieurs siècles d’âge ! Une canette énergisante mêlée à 75 centilitres d’un grand crû bordelais !
La tentative était osée car en 1954, pas si loin, ce fût Edgar Varèse et la création au théâtre des Champs Elysées de sa pièce « Désert » : se rappeler la ire scandalisée des auditeurs (de vilains « rats des Champs » à l’oreille trop conformée !) qui engendra l’échec public de cette belle « nécessité historique ». J’affirme cette nécessité d’autant mieux que, malgré mes propres expériences de « musique mixte » dont certaines « bien accueillies » comme on dit, je reste dubitatif. Je continue, dans la réflexion, à avancer avec grande prudence sur le terrain miné des bonnes intentions où marier la carpe et le lapin ne peut qu’être tenté certes (rendre cohérent l’hétéroclite est mon sport favori), mais pas à n’importe quel prix. Ma « sensoricité » mise en cause m’autorise à rester vigilant : l’instrument et le haut-parleur n’ont pas la même histoire, ce n’est pas parce qu’on les aime tous les deux qu’il faut les forcer à se marier.
Mais, prenons un peu de recul, était donc bien historiquement nécessaire, et la communauté électroacoustique expérimentale en sort confortée, l’apparition d’œuvres pour instruments et bandes magnétiques. En 1961/1962, c’est l’ambitieux défi du « Concert Collectif » pour petit ensemble instrumental et bande magnétique. Iannis Xenakis participe à sa complexe conception avant de se retirer de l’expérience ; et ce sont François-Bernard Mache, Ivo Malec, Luc Ferrari, Bernard Parmegiani, François Bayle, Edgardo Canton, Philippe Carson, N’Guyen Van Tuong, Jean-Étienne Marie qui finaliseront l’expérience jouant bien le jeu des années 60, tellement fertiles en aventures audibles. Ils ouvraient la porte aux années 70 où les « musiques mixtes » seront le plus souvent des pièces, plus classiquement abordables, dans lesquelles un soliste concerte avec une bande magnétique nourrie à la même chair instrumentale pré-enregistrée. Sorte d’anamorphose entre la carpe et le lapin.
Bien plus tard, le traitement du son instrumental en temps réel prendra la suite des musiques mixtes qui occupèrent donc longtemps «la scène». Il se présentera comme la grande réconciliation entre le vivant instrumental écrit et une technologie « enfin » avancée, de progrès, of course… Reste à s’interroger sur ce développement qui se pensait incontournable? En plus de nombreuses bonnes raisons techniques, il y a eu vraisemblablement la volonté de réhabiliter la notion de représentation scénique et, plus dissimulées, l’existence de pressions corporatistes, économiques, parfois un tantinet passéistes (les éditeurs de partitions musicales faisaient grises mines…). Il y a matière à discussion.
Plus tard encore c’est la montée sur scène de l’ordinateur portable, du laptop, et des notions de real time voulant peut-être reléguer le delayed time au mémorial des anciens combattants (le mettre à genoux/sur les genoux au sens propre et figuré). C’est une joke facile qui n’apporterait rien de positif au débat, sauf si l’on jette un regard sur les pratiques libres improvisées actuelles : dans le cas de nombreux groupes, une «machinerie expérimentale» voire rustique, telle que celle que nous utilisions dans le G.E.D. Chateauvallon par exemple, fait sa réapparition au côté du laptop; le vintage peut frapper encore et avec bonheur.
Point d’importance qui mérite aussi débat: cette pratique d’une musique électroacoustique en direct, en temps réel comme on dit pour l’heure (en « temps présenté » pour moi), n’était pas, et n’est toujours pas, à considérer comme une évolution, un «progrès» vis-à-vis de la pratique différée en studio. C’était dans les années 60/70 une pratique «autre», parallèle, complémentaire, répondant à d’autres envies d’expressions par le faire musical: le temps différé n’a jamais été rongé par le temps réel comme la rouille, avec le temps, ronge le fer, loin de là. Temps réel-temps différé: c’est une façon de faire vivre notre « oreille » à deux vitesses distinctes, pour le bien de deux maîtrises elles aussi distinctes du Temps (et de l’Espace, n’oublions pas une fois encore de l’évoquer à un moment ou à un autre). Par ce terme «oreille» il faut bien sûr comprendre une façon fondamentale d’entendre le monde: le ressentir, le penser, s’y confronter. Et ça, c’est de l’impératif, pas du conditionnel présent ou passé.
III – Les « glissements progressifs du plaisir »… vers la scène
Petit emprunt à Robbe-Grillet pour s’interroger sur ce passage progressif de l’ombre de la salle publique à la lumière du plateau pour le compositeur d’œuvres électroacoustiques. Ou, autrement, interrogations plus Schaeffériennes : les relations troubles, parfois extraconjugales, que la cause et l’effet entretiennent dès que le haut-parleur se mêle de diffuser du son. « Cachez cette cause que je ne saurais entendre… », paraphrasait-on dans les années 60, «… cela fera un bien meilleur effet ». Remémorons-nous cette défense théorique (un peu anamorphosée ici), proposée par Pierre Schaeffer pour contrer les attaques faites aux musiques trop « anecdotiques » des années 50 ; trop anecdotiques aux oreilles de ceux qui, en fait, n’avaient qu’une écoute du monde que l’on pourrait déclarer « tristement » anecdotique, imperméables qu’ils étaient aux sons qui se situaient « hors de portée à cinq lignes » comme j’aime le dire.
Masquer la cause pour favoriser l’effet, ou renforcer la cause qui affaiblira l’effet ? On peut appliquer ce questionnement à l’importance donnée, respectivement, aux différentes parties significatives d’un tout comme le concert; « en effet », dans l’espace impliqué (salle publique et scène) l’attention du public peut au gré de son humeur passer du virtuel au tangible, au saisissable. Par exemple il peut constater que la mise en scène des haut-parleurs est du plus bel effet ou bien s’interroger sur ce qui cause ce déploiement d’ondes sonores envahissantes. Il peut chercher à décrypter ce que cache le moindre mouvement du compositeur à sa console, chercher un rapport effectif entre ces mouvements parfois infimes et ce qui lui cause ces affects inconnus de sa sensibilité auditive jusqu’alors ; il peut aussi fermer les yeux et se faire son propre cinéma, « virtuel » comme de bien entendu …
Plus globalement, ce public va-t-il vivre du « temps présenté » (le real time en questionnement), un « hic et nunc » intangible, quoi qu’il se passe à coté, au-dessus, devant ou derrière lui ? Ou bien va-t-il vivre plutôt du « temps re-présenté » si le contenu « différé » (l’effectuation sonore d’un autre temps et d’un autre espace) l’emporte sur le décor et moment présent, le transporte ailleurs comme on dit ?
Force est de constater, depuis les années 60 (pour ne pas remonter jusqu’à la préhistoire), que le positionnement du compositeur vis-à-vis des auditeurs/spectateurs a fait du chemin, au moins d’un point de vue topique. Il y aurait comme le projet qu’il retienne mieux et plus l’attention du public en faisant progressivement glisser le plaisir de l’effet (la pure expérience auditive vécue « à cause » du contenu diffusé par les haut-parleurs), vers la cause tangible: l’individu-compositeur en action sous ses yeux, le géniteur, en train de conduire la diffusion depuis la console.
Amusant renversement historique depuis le précepte des années 50, depuis la crainte de l’anecdotique! Il y aurait comme l’acceptation par le public d’être distrait de l’écoute qui était voulue « réduite », pour mieux ouvrir les yeux sur les causes « fabricationnelles » ; privilégier « le faire » (« l’en train d’être fait… ») au détriment éventuel de « l’entendre » ? Dans cette direction prise, le chemin du devant de la scène, laptop sur les genoux, est entr’ouvert pour le compositeur. Reprenons le cheminement depuis les années 70 par exemple.
Premier cas de figure : le compositeur diffuse sa pièce depuis la console centralisée au milieu du public ; une petite lumière, juste fonctionnelle, éclaire les potentiomètres. Il reste en quelque sorte « dans l’ombre » de son mixage final, antérieur, en studio, n’agissant sur les potentiomètres que pour « surligner », pour adapter au nouvel espace les effets de proche ou de lointain, de serré ou de large, de soli ou de tutti, de déplacements cinétiques, et cætera, qui sont déjà inscrits sur le support stéréophonique. Ces effets, mémorisés, lui « suggérant » le juste geste accompagnateur, et pas plus, à effectuer au moment de la diffusion (mon option personnelle le plus souvent, je déteste qu’on touche à mes « déplacements cinétiques » décidés et fixés en studio). Car le compositeur a bien été interprète (« compositeur interprète ») en temps réel de sa pièce, mais au moment du mixage final en studio, pas dans ce temps différé de l’effectuation sonore publique. Dans ce deuxième temps, il joue le rôle d’une sorte d’accompagnateur, de « compositeur accompagnateur » le plus zélé possible de sa propre composition.
Dans ce premier cas, le compositeur ne cherche pas « in situ » à se montrer comme la « cause » de ce que les haut-parleurs diffusent, ce sont les haut-parleurs eux-mêmes qui sont « causants » ; leurs « effets » sont prioritaires et s’emparent de l’espace. Dans ce dessein, les haut-parleurs seront peu à peu « mis en lumière », mis en scène, ils en occupent le devant : ils vont passer progressivement de la trans-parence à la pré-parence. Mais on reste bien spécifiquement confronté à de la « musique haut-parlante ».
Deuxième cas de figure : le glissement s’amorce assez vite avec la mise en lumière de la console en entier, et bien sûr celle de son conducteur, qui passe du rôle de « compositeur accompagnateur » à celui de « compositeur chef d’orchestre ». Car « l’orchestre de haut-parleurs » sera le terme revendiqué, mis en avant (c’est dur d’abandonner le XIXe siècle, on se « console » comme on peut !) ; il n’est pas bien approprié, mais c’est un autre débat. Peut-être y a-t-il dans ce deuxième cas de figure la tentative d’équilibrer, pour le ressenti du public, la cause et l’effet ? Il y aurait comme la volonté d’équilibrer la relation entre celui qui, en temps réel, autorise sa propre composition à occuper l’espace présent en ouvrant les potentiomètres comme il l’entend, et, d’autre part, la musique elle-même, ses effets, effets qui en temps différé, pourront aussi vivre leur vie ailleurs, dans un autre temps, sous la conduite d’un autre compositeur/interprète.
Dans cette posture, le compositeur au pupitre de commande peut parfois se laisser aller à passer des effets du son aux effets de manche, comme l’avocat qui défend une cause (« sa » cause dans le cas du compositeur). Pierre Henry a été un grand défenseur de cet exercice avec le succès que l’on sait. C’est de bonne guerre, mais s’enclenchera alors un troisième glissement du plaisir, celui qui est pour le compositeur d’aller vers la scène, pour aller rejoindre d’une certaine façon, et dans des cas extrêmes, le DJ des musiques électroniques de danse.
Troisième cas de figure : venue d’outre atlantique, la « performance », laptop en bandoulière, va prendre ses marques. Pas d’ambiguïté, « c’est celui qui l’dit qui y est » on disait à l’école : celui qui est sur scène c’est bien celui qui apparemment joue d’un instrument (pseudo instrument ?) et qui fabrique sa musique « sous nos yeux ». Ce sont peut-être les grandes retrouvailles entre tous les « métiers » (métiers ou compétences ?) de la réalisation électroacoustique : au même instant, au même endroit et pour le même prix, on aurait le luthier, le preneur de son, l’interprète, le compositeur, le chef d’orchestre, l’éditeur, et cætera… Serait-ce le « tout en un », comme avant l’ère des segmentations par spécialisations calquées sur le modèle du développement industriel en occident ?
Pour qui travaille avec les exigences propres au temps différé (temps re-présentable), en studio, cela semble trop beau pour être totalement vrai, des raccourcis sont inévitablement empruntés : le temps de travail (sa nature, sa qualité, sa façon d’être pensé), temps nécessaire à chaque phase de la réalisation, n’est pas compressible à ce point. Les exigences ne peuvent pas être les mêmes entre un mode de l’occupation du temps et de l’espace qu’on souhaite « re-présentable » et celui qu’on souhaite « présentable », il s’agit bien de deux sports différents dont il faut débattre.
Mais remarquons néanmoins que la « performance en temps réel», vue de loin, est une sorte de retrouvaille avec la conception du musicien des siècles passés ou des contrées extra- européennes : pas de discriminations entre l’instrumentiste et le compositeur. C’est donc aussi, toujours vu de loin, un rapprochement que l’on peut faire avec l’improvisateur de musique libre que j’ai évoqué plus haut ; sauf que ce dernier ne revendique pas, loin de là, un statut comparable dans la société musicale dominante qui nous organise (d’ailleurs, la SACEM lui refusait ce statut il n’y a pas si longtemps).
Ce qui est gagné, c’est la simplification du ressenti pour le spectateur : tout est là, tout est dans tout, et réciproquement a-t’on envie de dire. Et « sous nos yeux » disais-je, car on ne peut plus en réchapper : la cause et son effet sont indissociables, en pleine lumière, unis pour le meilleur et pour le pire. Le geste est intimement lié à la parole : « enfin ! », diront certains ; encore faut-il que le geste soit juste, que la parole soit claire. Ce n’est pas si gagné que ça. Sans nul doute, c’est le progrès des interfaces dans le sens de la « digitalisation sensible » qui donne progressivement la bonne réponse. Le développement des launchpad, controler et capteurs divers ainsi que les logiciels adéquats, remet « le toucher » en jeu et fait passer progressivement le déclenchement par le bout d’un doigt d’une touche de clavier comme une action rustique, désuète. On peut s’y attarder brièvement car ce n’est jamais bon de faire les choses seulement « du bout des doigts ».
IV – La reprise en main du style
Petit retour nostalgique sur l’apprentissage de l’écriture : je parle ici de celui que j’ai eu la grande chance de faire à la plume de sergent-major, en primaire, lors de ces délicieuses dictées où l’on prend le temps et l’espace de la page blanche pour inscrire et donc exprimer ce que l’on perçoit du monologue de l’instituteur, de sa litanie orale (« aurale » je préfère dire). Cela a été déterminant pour ce qui sera plus tard l’apprentissage fondamental de la musique ; pas tant sa technique que le modelage cognitif de la pensée et sa représentation temporelle et spatiale. Que l’on soit musicien ou danseur potentiel (les deux à la fois seront toujours le bienvenu…), l’expérience du délié et du plein à la plume c’est l’expérience première de l’arsis et de la thésis, de l’élan et du posé, de l’inspiration et de l’expiration, bref l’expérience de tout ce qui mène des artistes (entre autres) à maîtriser le mouvement dans l’espace et dans le temps : une très longue et passionnante histoire reste à écrire (amorcée brièvement dans le sous-chapitre « les mots à moudre », p. 113 de mon « Introduction à un solfège de l’audible – L’improvisation libre comme outil pratique », Ed. SYMÉTRIE – Lyon).
Car écrire à la plume sergent-major ce n’était pas rester à la surface de la page (…à la surface des choses), sur un seul plan à deux dimensions ; le fait de pouvoir affiner (vers le haut, dans « le délié ») ou grossir (vers le bas, dans « le plein ») le trait, c’est d’une certaine façon toucher « des doigts de la main » la profondeur, donner une illusion de relief, chercher à mieux caractériser sa propre écriture par jeux de pressions ou d’allègements. On faisait alors l’expérience sensible, capitale, de son propre « style ». Le style : ce qui est donc le propre de chacun, ce qui peut être la différenciation d’avec l’autre et donc, à terme, sa meilleure compréhension ; une nécessité sociale mal maîtrisée à cette heure.
En toute conséquence logique, le « progrès » (avec les réserves que l’on va comprendre) ce sera « le stylo à plume », le bien nommé ; puis et malheureusement l’arrivée du stylo-bille qui remet « à plat » la trace stylisée de l’individu, banalise le relief. Enfin le clavier de l’ordinateur (après celui de la « machine à écrire ») achève le travail : l’homme, simple déclencheur, perd le contact avec sa propre « réalité » sur le plan sensible ; sa « sensoricité » première, il la confie à la machine, à un intermédiaire. « Son » temps et « son » espace dont il avait, porte-plume en main, la charge de les inscrire pleinement en temps réel, en « temps présenté », lui échappent en partie. Son style potentiel est édulcoré, banalisé, car le temps réel « machiné », pris en charge au moment de l’effectuation, aboutit à une espèce de style qui ne lui est pas propre ; il est différé, médiatisé, reporté sur le dos d’un outil accessible à tous. Il y a perte de qualité en « caractère ». Mais pas en quantité, car la fenêtre « Police » disponible sur la barre d’outils est censée par sa diversité de propositions nous représenter ; elle nous dit, d’une certaine façon, comme toutes les polices : « on s’occupe de tout, circulez, il n’y a rien à voir… ».
Un simple mot propulsé par ma frappe sur le clavier peut donc être écrit par tout le monde, on ne verra pas de différence ; il en faudra plusieurs pour que l’identité « stylistique » de son auteur affleure, à niveau syntaxique, et que l’on passe d’une simple accumulation ou juxtaposition de significations à du « sens » propre à celui-ci. En fait, l’instantanéité recherchée dans le temps réel prend en amont beaucoup de temps de préparation pour que du « style » se manifeste.
En temps différé, celui correspondant par exemple à une lettre manuscrite reçue un mois plus tard, ou relue deux cents ans après, c’est la mémoire exacte du « style » de son auteur, c’est l’empreinte de son « é-motion » (ce qui a fait « bouger » sa main) qui a été imprimée dans le temps réel d’alors, un temps réel « passé ». Paradoxes à souligner.
Par analogie plaisante on ne peut nier la différence entre le plaisir lent que procure l’écriture à la plume d’un beau « l » à l’ancienne et celui plus furtif, pour le moins, de la frappe d’un « l » stéréotypé, sur le clavier de l’ordinateur. Dans le premier cas, porte-plume en main, on prend le temps d’alléger en montant vers le sommet du « l », on s’y attarde, un peu hésitant, pour enfin plonger vers la descente, retourner à la terre promise en grossissant progressivement le trait, avec la jouissance de l’acte pleinement accompli. Comparé à cette façon de vivre le temps et l’espace parcouru, le coup de doigt sur la touche passe pour de l’éjaculation précoce, ce qui n’est pas forcément du goût de tout le monde.
D’ailleurs « la reprise en main du style » telle que je l’évoquais plus haut a dû sembler nécessaire au joueur de laptop, à celui qui ne veut pas différer son temps (et son espace) d’activité créatrice pour le provoquer, le convoquer en temps réel et en public. J’y viendrai plus loin.
Mais pour le partisan du temps différé (partisan pas forcément exclusif, l’intégrisme n’est jamais bon à favoriser), son « style », il ne l’a pas quitté des mains. Il l’a interpellé et provoqué scrupuleusement en prenant le temps de remettre cent fois l’ouvrage sur le métier, que ce soit pour un malheureux début de son pas aussi abrupte que souhaité, pour la durée d’un silence qui doit être senti comme respiration et non pas rémanence terminale ou pour le mixage d’une séquence entière enfin équilibrée, et cætera… Alors, à un certain moment, imprévisible et crucial, il fait le constat que définitivement, cette énième tentative tant attendue (ne pas confondre avec une énième « version »), bref et enfin cette tentative était la bonne, la seule possible, irrémédiablement, sans retour possible ; il n’y a plus d’au-delà ou d’après envisageable. Le compositeur s’est trouvé à/en ce moment-là en pleine adéquation avec son « style ».
Pour l’alpiniste, ce grand sommet dont il a toujours rêvé, il l’atteint une seule et grande fois que l’on va nommer sa « première », quelque soit le nombre de tentatives qui l’ont précédée. Il ne parlera jamais de « versions d’ascensions antérieures ».
Le peintre, le sculpteur, le réalisateur de film, l’écrivain sont pareillement confrontés à ces moments bascules, ces « premières ». Une sorte de responsabilité, impérieuse, est prise soudainement sans réserves. L’artisan, le bien nommé, prend la responsabilité de « fixer dans le marbre » ce dernier geste tenté et réussi, ces derniers mots ou images enfin bien ajustés ; il décide d’en faire une « inscripture définitive», je dirais.
Pour le compositeur dans son studio, une remise en cause d’un acte de type alchimique serait la négation de ce mode de penser l’occupation du temps et de l’espace, et des techniques de réalisation y afférentes pour lesquelles il a opté. Il a appris sur du long terme à se pousser dans ses retranchements inventifs, en grande et fertile solitude, hors temps conventionnel, avec cette auto- exigence indescriptible et parfois irrationnelle.
Ce temps réel à vivre en studio n’est pas partageable, ne peut être « public ». Pour faire court, on n’imagine pas Georges Braque faire entrer ses amis ou du public dans son atelier pour parachever sa toile.
Retour au joueur de laptop : le souhait de « remettre la main sur son style » pourrait être détecté dans l’utilisation croissante des pad et autres tablettes où les doigts de cette main en question tentent d’imprimer plus directement des variations de paramètres diverses, en toucher sensible (pas en déclenchement), et par là retrouver le geste de l’instrumentiste traditionnel, toutes oreilles (les véritables « contrôleurs ») dehors. Dans ce mode de réalisation de la musique, il y a bien un amont prédéterminé nécessaire (des «patch») qui va autoriser en aval des versions/variations possibles (et non plus des tentatives) en situation de « représentation » publique ; une sorte d’équilibre est recherché entre l’amont et l’aval. Dans le temps réel nous serions, très schématiquement, à mi-chemin entre l’improvisation libre instrumentale où l’amont et l’aval sont confondus au moment de la « présentation » (tout advient dans le présent), et la diffusion « différée » d’une musique inscrite sur support où le compositeur se propose de « re-présenter » l’amont de l’œuvre longuement et totalement engendré en studio.
Le « totalement » est bien sûr à relativiser en temps différé au moment d’une diffusion publique, car les capacités interprétatives de la console sont à prendre en compte : on ne « re-présente » pas de la même façon une œuvre à partir d’une «consolette Uher» stéréo ou d’une console type Gmebaphone…De même, la diffusion d’une pièce stéréophonique permet un acte interprétatif autrement plus souple que celle d’une pièce inscrite sur 16 canaux où des relations spatiales de voix à voix auront été fixées pour une grande part en studio et donc moins « manipulables » en aval public. Plus loin encore, les réalisations holophoniques (tétra, penta, hexa ou octophoniques) que j’ai expérimentées imposent une grande neutralité à la diffusion (excepté, et faiblement, le niveau général) au risque de perturber les phases et détruire « l’effet holophonique » recherché (certes fragile) tel qu’il avait été capté à la prise de son (tétra, penta, hexa ou octophonique). Dans ce dernier cas la « trans-parence » des haut-parleurs est impérative ; et est donc impératif l’absence de rapport qui pourrait être établi par le spectateur/auditeur entre le haut-parleur et le geste « instrumental » à la console qui affirmerait alors la « pré-parence » du dit haut-parleur, sa présence « causante ». En 1973 nous avions longuement discuté avec John Chowning de sa pièce « Turenas » (quatre pistes) et de ma première expérience holophonique (tétraphonique) « L’arbre et cætera » ; de façons techniques différentes nous cherchions à atteindre ce que je nomme ici « trans-parence » et ce qu’il définissait avec cette jolie formule : « …libérer les sons des haut-parleurs ».
V – Pour ne pas en finir…mais plus tard
remière remarque : on pourrait prolonger la réflexion amorcée autour des natures de « temps » en interrogeant ou impliquant les natures « d’espace ». Par exemple opposer le fait de « jouer en direct » l’occupation spatiale d’un lieu (espace réel ?) ou bien tenter une « occupation spatiale de substitution » de ce même lieu en transférant un « tout », organisé et fixé, provenant d’un autre lieu et d’un autre temps (espace différé ?), c’est à dire proposer un simulacre.
« Espace réel et espace différé », en voilà un beau sujet supplémentaire et/ou complémentaire à aborder.
Deuxième remarque : évoquer le destin obsolète de certains outils de traitement du son en temps réel, particulièrement ceux dont on a poussé très loin leur cohérence et leur homogénéité « instrumentale ». Le temps passant, les techniques évoluant, des pièces spécifiquement conçues pour ceux-ci, dans « l’esprit » de ceux-ci, sont condamnées à disparaître, sans réelles chances de pouvoir être « réhabilitées ». En toute connaissance de cause, j’évoque avec mes « regrets éternels » ma pièce « La complainte du bossué » pour SYTER et un contrebassiste parleur.
Bref, il est urgent de ne pas conclure.
Alain Savouret octobre 2013
Jean-Marc DUCHENNE
Quand je danse, je danse…
« Quand je danse, je danse ; quand je dors, je dors » écrivait Montaigne dans ses Essais.
Le temps de la réaction instantanée, de la surprise exploitée, de l’erreur incorrigible et de l’écoute excitée par le risque ; et le temps de la réflexion, de la comparaison, de la correction patiente et de l’écoute affinée par la répétition.
La place et la finalité de chacun est différente, presque opposée, dans le cas de la réalisation d’un objet et du jeu devant un public.
Ce qui est important, c’est de s’autoriser d’aller aussi loin que possible dans ce que chacun d’eux apporte d’irréductible et d’irremplaçable : quand je joue, je joue ; quand je fixe, je fixe…
Temps réel, temps différé… des termes techniques, issus du traitement informatique.
Mais que peuvent-ils représenter ici ? Une action et son effet ? Une décision et la perception de son résultat ?
Retrouve-t-on, formulée sous une apparence plus moderne, l’opposition entre une musique abstraite où le temps de la composition est très « différé » et celui de l’exécution très « réel », et une concrète où le geste compositionnel se traduit instantanément en un résultat sonore mais où l’écoute finale peut se faire sans aucune intervention ?
Que ce soit dans la solitude du studio-atelier ou au milieu (en face) d’un auditoire, la place relative de ces deux composantes peut effectivement être extrêmement variable, elles peuvent se conjuguer d’une infinité de manières… ou être présentes quasiment à l’état pur.
Je me suis amusé à tenter une sorte de mise en ordre de ces rapports dans une perspective de création sonore, à la fois en amont et en aval de l’objet de fixation / transmission, pour l’artiste sonore et pour l’auditeur.
C’est évidemment assez approximatif, certainement incomplet, souvent discutable, mais peut-être instructif… :
EN AMONT
(L’artiste sonore dans son atelier ou le compositeur à son bureau ;
du côté du compositeur : ce qui est pensé / ce qui est réalisé)
Temps décalé
Schéma d’intention, description, partition : aucun son n’est produit, il reste à fabriquer / programmer / jouer / faire jouer les instruments / les machines / les programmes…
Programmation informatique : un processus est d’abord formalisé, puis ensuite exécuté afin de générer / traiter des sons (ou des partitions)
Programmation graphique modulaire, réglages de paramètres d’instruments et de traitements : réalisation d’outils de traitement / synthèse, en interaction avec l’audition de
leur effet
Opérations de « montage », automations et séquences MIDI en pas à pas : modification d’éléments sonores déjà fixés, génération d’information de contrôle dont l’effet est immédiatement audible
tournage sonore selon des intentions préalables en vue d’obtenir un résultat précis : préparation technique des microphones / corps et situations sonores / dispositifs électroniques, entraînement des gestes, puis enregistrement des sons ou des gestes
Dispositif à surprises : génération / traitement faisant interagir de manière complexe geste et processus, dispositifs microphoniques complexes
Dispositif aléatoire : génération / traitement stochastique non contrôlé directement
Imprévu capturé : accident, improvisation totale, « trouvaille »
Temps instantané
Note : dans ce travail « en amont », toutes les situations décrites sont bien-sûr chaînables et cumulables, dans n’importe quel ordre et de multiples fois, puisqu’il se situe par définition dans un temps global décalé.
EN AVAL
(Le musicien devant son public ou le projectionniste derrière sa machine ; du côté du public : ce qui est composé / ce qui est entendu)
Temps décalé
Œuvre sonore fixée incluant les conditions de sa perception (installation pérenne, dispositif de projection autonome, casque sur borne…) : ce qui est donné à entendre ne varie jamais
Œuvre / objet fini pouvant être placé dans un lieu variable (projection acousmatique directe, installation sonore fixée, cinéma, objet haut-parlant, musique mécanique…) : la réalisation est entièrement fixée, mais les conditions précises de sa perception varient à l’intérieur d’une marge définie, qui est sensée conserver l’intégralité de ce qui a été composé
Dispositif individuel ou public interactif (CD-Rom, site Web, jeu vidéo, installation interactive…) : l’œuvre comporte des éléments qui peuvent varier, mais les conditions de cette variabilité sont intégrées dans la composition\
Support / transmission domestique (disque, DVD, radio…) : l’oeuvre est fixée, mais le dispositif et les conditions d’écoute disposent d’un degré de variation indéterminé
Adaptations d’un support en projection publique (volume global, ajustements de résolution spatiale, adaptation à l’acoustique et aux dimensions…) : ce qui est donné à entendre peut être légèrement différent d’une fois à l’autre, sans que le sens de ce qui a été réalisé ne soit modifié
« Spatialisation acousmatique » (stéréo domestique > acousmonium…) : l’espace de l’œuvre est adapté dynamiquement par un tiers à des conditions différentes de celles qui ont été définies par la fixation, ce qui est entendu est forcément différent de ce qui a été fixé
« interprétation acousmatique » : une partie du sens de l’œuvre est modifiée dynamiquement par ajout / transformation d’espace, amplification ou détournement des critères fixés, ceci sous la responsabilité de l’interprète
« musique mixte » : juxtaposition d’éléments temporellement fixés et de jeu direct
« live electronics » : déclenchement / modification / agencement d’éléments prédéfinis, jeu avec des dispositifs interactifs pré-programmés
partition / tablature plus ou moins détaillée, précise et contraignante : le son de l’œuvre (acoustique ou électronique) est intégralement créé lors de la présentation publique, son déroulement varie selon les limites imposées par la transmission et les choix / possibilités des musiciens, chaque exécution est différente
Partitions « ouvertes » : certains aspects temporels et / ou sonores varient dans une plage plus ou moins importante
Règles de jeu, grilles d’improvisation : il existe un dénominateur commun à chaque exécution, mais il est plus ou moins perceptible
Improvisation « totale », ou s’en approchant : chaque exécution est, dans la globalité comme dans le détail, (presque) totalement différente
Temps instantané
Note :
La proportion de temps instantané et de temps décalé est bien-sûr partiellement déterminée par le « temps de vie sonore » de l’œuvre (je ne parle pas de la durée de son exploitation !). Limité et unique dans le cas du concert (5 à 13), limité mais multiple dans celui des séances (1, 2 et 5), il peut être infini dans certaines installations ou objets-haut-parlants (1 à 3), et indéterminé pour les supports domestiques (3 et 4).
Les n°5, 6 et 7 peuvent sembler assez proches, mais ils représentent néanmoins des choix de répartition amont/aval bien différents et déterminants à la fois pour la composition et pour le mode de présentation adapté.
Je laisse à chacun le loisir de réfléchir où se situent ses préférences et pourquoi…
Quant à moi, quitte à paraître un tantinet manichéen, et alors que je suis d’un naturel tout ce qu’il y a de plus doux et tranquille, les extrêmes me plaisent ici beaucoup (justement ?), notamment les trois derniers points en amont, et les trois premiers en aval (avec une tendre pensée pour le n°13), sachant que l’essentiel de mon temps de travail (en amont) se situe tout de même dans l’entre-deux du n°4.
Parmi toutes ces situations, il y en a donc deux sur lesquelles je peux m’arrêter, car elles m’apparaissent comme significatives de la manière dont j’aborde la création sonore haut-parlante. En tant qu’ex-instrumentiste et ex-compositeur-sur-papier (il y a très longtemps !), j’y trouve amplifiés : le plaisir de jouer, de confronter mon corps à la production des sons, et l’ineffable satisfaction de produire un objet qui, avec toutes ses limites et ses faiblesses possibles, représente quelque-chose dont je suis entièrement responsable lorsqu’il est présenté à un auditeur. En cela, selon les critères habituels, je me sens beaucoup plus cinéaste (indépendant bien-sûr) ou plasticien que compositeur…
C’est que la réalisation d’une œuvre sonore en amont de sa diffusion au public bénéficie à la fois des possibilités offertes par l’improvisation la plus sauvage, où l’on peut se permettre de faire littéralement n’importe quoi, et, par la capture et la fixation, où l’on a l’assurance qu’il sera toujours possible de n’en conserver que le meilleur. Le risque du temps instantané peut être total parce que ce que je vais montrer sera très décalé.
Le jeu d’abord, lors des séquences de tournage microphonique et des séquences d’improvisation avec les outils logiciels (échantillonnage, synthèse, traitements…).
Cette étape est presque toujours temporellement dissociée de celle de l’assemblage (le n°4 cité plus haut), et n’est pas forcément réalisée en fonction d’un projet particulier. D’ailleurs, lorsque c’est le cas, la majorité de ce que j’obtiens se retrouve généralement inappropriée pour ce projet…
C’est qu’il s’agit pour moi lors de ces séances d’utiliser une énergie totalement différente de celle qui est nécessaire lors de la composition (n°4), d’un investissement corporel et d’une attention d’écoute presque diamétralement opposés.
J’y favorise les situations « à risque », je ne répète pas, je préfère sélectionner un son source sans le pré-auditionner, ne pas voir sa représentation graphique, ne pas bien connaître l’affectation de certains contrôleurs.
Le plus souvent, cette situation de découverte et de surprise favorise la réaction, amène mon écoute et mon geste à donner naissance à des particularités sonores que je ne pourrais certainement jamais refaire, et, surtout, auxquelles je n’aurais jamais pensé.
Et si le résultat n’offre pas d’intérêt, je peux éventuellement retenter le coup, mais surtout je jette, ou, plus intéressant, j’essaie de tirer parti des « erreurs » commises.
Je passe ainsi beaucoup de temps, plus tard, à « rattraper » des trucs mal fichus, mais bon : « quand je joue, je joue ! »
A l’opposé, lorsque la réalisation a atteint le point où il n’est plus possible de l’améliorer, lorsque l’œuvre est donc finie, je la laisse reposer jusqu’au moment où elle sera entendue, selon l’ensemble des éléments qui ont été fixés.
Pour obtenir ce temps décalé, pour réunir les conditions pour que la non-intervention finale soit efficace, il a fallu au préalable transférer des aspects qui sont souvent dévolus au temps instantané de la diffusion (n°6 et 7 en aval notamment) vers le temps décalé de la composition.
Mais c’est pour moi assumer pleinement ce rêve de l’objet-composé, aller, autant que possible, jusqu’au bout de ce que propose et permet la création sonore pour des haut-parleurs : « quand je fixe, je fixe… », là.
Jean-Marc Duchenne, novembre 2013
Pierre BOESWILLWALD
L’avènement de l’électro-acoustique ou le haut-parleur, l’auditeur et le temps.
Cet article est, pour l’essentiel, un assemblage d’idées, de constats et de souvenirs qui sont tirés d’un ouvrage sur La notion de temps dans les arts contemporains, que je prépare par ailleurs. Je ne suis pas, un universitaire, un scientifique ou un essayiste. Aussi, j’espère que mon lecteur voudra bien pardonner le côté quelque peu «salmigondis» de ce travail un peu fait à la hâte !
Voilà plus de soixante ans que je me consacre à l’exploration des domaines de l’électro- acoustique. Durant tout ce temps, je me suis surtout attaché à tenter d’apprivoiser les extraordinaires possibilités expressives que ces techniques pouvaient m’apporter sur le plan artistique. Pendant toutes ces années, l’évolution du matériel et des techniques a été ininterrompue et considérable. Comme tous les pionniers de ces nouveaux territoires, je me suis constamment adapté à cette évolution technologique (en particulier : l’informatique et les techniques numériques).
Créer des œuvres d’avant-garde avec les moyens les plus récents, c’est le lot et le métier du créateur/compositeur électro-acousticien !…
On est, semble-t-il, peu conscient de l’impact qu’ont eu les diverses applications de l’électro-acoustique(1) sur notre société contemporaine ; il est pourtant considérable et je vous invite à y penser…
L’électro-acoustique et le son
Pour éclairer, le mieux possible, mon article, je vous propose deux définitions, aussi simples que possible, de l’électro-acoustique :
1/C’est le traitement ou la production des sons par le moyen de l’électricité.
2/Ce sont les applications de l’électricité destinées au sens de l’ouïe.
Et, puisqu’il sera constamment question du son, de sa nature et de son
essence, voici quelques repères déterminants :
Le temps préside à la perception du son.
Un son n’est pas un objet et quoiqu’en dise Pierre Schaeffer, son « objet
sonore » ne peut pas être rangé dans une boîte !
Le son n’existe pas en soi, c’est une sensation ; c’est un événement
temporel ; c’est, dans tous les cas, l’histoire d’un corps physique dont l’immobilité a été dérangée plus ou moins longuement, par un apport d’énergie. Autrement, le corps physique reste inanimé et silencieux.
La naissance de l’electro-acoustique : le solénoïde
En fait, ce sont les applications de l’électromagnétisme qui sont à la base de toute l’électro- acoustique. Vers 1830, Ampère et Arago inventent la sonnette électrique. Cette toute première application « grand public » de l’électromagnétisme (l’électro-aimant) était sonore(2) ! On imagine mal la perplexité qu’éprouvaient nos aïeuls devant la sonnette. Faire retentir une sonnette éloignée en appuyant sur un petit bouton bouleversait leurs habitudes et troublait leurs certitudes sur le temps, la matière et l’espace.
La consécration de l’instantanéité
Peu après la sonnette apparurent deux inventions : le télégraphe et le téléphone (qui sont aussi des applications de l’électromagnétisme dédiées au sonore.). Lorsqu’on appuie sur le bouton de la sonnette, celle-ci retentit aussitôt, quelle que soit la distance qui sépare les deux appareils. Le téléphone a banalisé cette situation. Pourtant, quoi de plus étonnant que de savoir, qu’à l’instant même où j’ai fini le numéro de mon correspondant, qui habite souvent à des centaines de kilomètres de chez moi, il entend la sonnerie et me parle !
Le phonographe et la photographie
C’est encore durant la seconde moitié du XIX siècle que deux inventions surgirent dans notre société et la transformèrent profondément : Le Phonographe et la Photographie. Ces inventions permettaient de fixer sur un support des sons et des images qui avait réellement, mais fugitivement existé.
Depuis, nous savons créer et conserver sur des supports matériels des documents que nous appelons «Enregistrements» !
Dans la pratique, nous les avons appelés : disque, CD, bande, fichier, cassette, ou photo, cliché, négatif, film, vidéo, DVD… Ils ont, vous le savez, envahi notre quotidien !
Mais, qu’est-ce qu’un enregistrement ? C’est une trace qui persiste sur un support matériel (une pellicule, un disque de cire, une bande magnétique, un fichier numérique…). Ces traces peuvent, à volonté, être « vues » ou « écoutées ». À chaque restitution, le signal est, semble-t-il, pareil à sa source. Nous avons le sentiment que la technique nous a donné le pouvoir de revenir dans le passé. C’est une fiction, mais nous l’oublions(3).
Dans son ouvrage La Chambre Claire, Roland Barthes a écrit : «La photo répète indéfiniment ce qui s’est passé qu’une seule fois». Il en va de même pour l’enregistrement sonore ! Après la Première Guerre mondiale, on assiste à l’extension de ce qu’on a nommé l’électronique(4). Fille de l’électricité, l’électronique a propulsé les électrotechniques dans la modernité.
L’électronique nous entoure et intervient dans tous les secteurs de notre vie. Du radar à la carte bancaire ; de la télévision au téléphone mobile et aux jeux vidéo, tout est électronique ; même l’ordinateur et le monde du numérique !
L’électro-acoustique est tout particulièrement tributaire de l’électronique. C’est grâce à elle que se sont développés : le cinéma parlant, la radiodiffusion, les studios d’enregistrements et de création sonores, les instruments de musique électronique (notamment, la guitare électrique), la haute-fidélité, etc.
Mais tout ça n’existe que parce que les Américains Chester W. Rice et Kellogg Edward ont inventé, en 1924, le « haut-parleur électrodynamique à bobine mobile » !
De l’importance du haut-parleur
Quel que soit l’intelligence des moyens mis en œuvre pour créer, traiter ou enregistrer et diffuser des sons électroacoustiques, cela ne servirait à rien si, à la fin il n’y avait pas un dispositif pour convertir(5) les signaux électriques en une onde sonore. Ce dispositif c’est le Haut-Parleur (haut-parleur). La présence d’un haut-parleur(6) est la condition sine qua non de la chaîne électroacoustique.
C’est le haut-parleur que l’auditeur écoute ; rien d’autre !
Une foule de haut-parleurs nous entoure. Ils sont partout ; dans nos salons, dans nos poches, dans nos véhicules, dans nos églises et nos écoles. Ils participent à notre vie.
Sans qu’on s’en rende compte, nous sommes soumis aux haut-parleurs. C’est le premier des médias. Il nous influence ! Écouter un haut-parleur c’est subir et participer à la société. Les infos, les consignes, les avis, les ordres, les slogans ; tout passe par le truchement du haut-parleur !
Le haut-parleur est le vecteur d’un monde inégalitaire ! D’un côté, il y a celui qui est devant le haut-parleur et qui écoute ; de l’autre, il y a celui qui est derrière et qui parle ! L’un est passif ; l’autre est actif. Ils n’ont pas les mêmes pouvoirs.
Parmi ceux qui ont la puissance de contrôler les moyens techniques, beaucoup nous manipulent, entre autres, les publicitaires, les politiciens, les réalisateurs, les compositeurs, les interprètes, ainsi que toute sorte de médialogues.
Avec le haut-parleur, l’espace public entre dans ma maison (la radio, la télé, le téléphone…) Un peu d’électro-psychoacoustique (de cuisine !)
Face à un haut-parleur qui émet des sons, tout auditeur se trouve dans une situation conflictuelle.
Pour l’auditeur, le signal entendu est bel et bien un événement acoustique qui se passe ici et maintenant, mais l’analyse qu’il fait de ce qu’il entend ne colle pas avec la logique des sons perçus.
Le haut-parleur est une source sonore très particulière. Les sons qu’il émet ne sont pas provoqués par les vibrations naturelles de son corps physique, mais par ceux provoqués par les variations d’un courant électrique appelé « signal » qui traverse sa bobine mobile ; laquelle agite l’air environnant au rythme des va-et-vient du cône de carton dont elle est solidaire !
Comme il n’existe pas de « son virtuel » (un son entendu, mais qui n’aurait pas de réalité physique ; comme une image dans un miroir ou sur un écran), toute écoute de sons dénonce une source réelle.
Lorsqu’on entend un haut-parleur, ce sont bien des sons réels qui stimulent nos oreilles et cela, quelle que soit notre interprétation !
Le haut-parleur est un drôle de sophiste ; un sacré menteur ! Il émet des sons qui sont réels et présents, mais qui nous apparaissent comme des illusions sonores.
Pour tenter de résoudre l’énigme du haut-parleur, nous entrons dans une sorte d’écoute particulière qui fait abstraction du présent et du lieu où ça se passe ; je dirais, une écoute
« paratemporelle ». Une écoute détachée du « présent » de l’auditeur.
Cela est vrai pour l’auditeur, tant qu’il est conscient que la source des sons est un haut- parleur. Par contre, si l’auditeur n’a pas cette conscience, il peut considérer que le son qu’il entend provient d’une source réelle et témoigne d’un événement contemporain. Il est trompé.
Il en va autrement pour celui qui, en studio, conçoit et réalise, une œuvre sonore. Lui aussi écoute un haut-parleur, mais c’est pour contrôler ses intentions. Il écoute au présent ; il fait le
« donner à entendre » selon sa volonté.
Quels que soient les techniques électroacoustiques(7) qui seront mis en œuvre, c’est finalement l’écoute d’un haut-parleur qui, pour l’auditeur, matérialisera la chose « donnée à entendre ».
Trois techniques ; trois aspects du « temps du haut-parleur »
À partir 1925, trois techniques se sont imposées :
- L’amplification : c’est l’amplificateur qui permet d’entendre, des orateurs dans les meetings, des informations utiles dans les gares, beaucoup d’artistes sur scène. C’est aussi l’amplificateur qui nous permet d’écouter les instruments de musiques dites « électroniques » (la guitare électrique, les orgues électroniques, synthés…). En pratique, nous parlons de « sonorisation ». La sonorisation place l’auditeur dans une situation plutôt simple, ce qu’il entend se fait à l’instant. On peut voir la source. Tout va bien ; nous sommes dans la vraie vie. Malgré l’artifice de la technique ; c’est du temps au « présent de l’indicatif » !
- La télétransmission : après la sonnette et le téléphone, c’est l’arrivée de la « radio » qui va transformer la communication entre les hommes.
C’est tout un univers qui s’est créé avec : l’émetteur, les studios, les émissions, les reportages… Aujourd’hui, écouter la radio est un acte habituel. Pourtant, là encore, l’auditeur croit écouter des hommes et des musiques venus d’ailleurs, alors qu’il écoute un HP ! Et puis, à la radio, le plus souvent, on ne peut pas discerner le « direct » du « différé ». C’est-à-dire que la radio peut diffuser du direct (comme le téléphone) ou des émissions enregistrées. Il y a confusion des temps. Selon que l’on sait que l’émission est en direct ou en différé, notre écoute est différente… voici une petite anecdote pour éclairer mon propos :
L’autre jour, j’écoutais un débat radiophonique qui me passionnait. J’étais complètement accaparé par les propos échangés et je « vivais » le moment avec les interlocuteurs. Mais, à un moment donné, un détail me fit comprendre qu’en réalité, j’écoutais un enregistrement et que l’émission datait de quelques années. Après, j’écoutai toujours le débat avec intérêt, mais je n’étais plus dans le coup ; j’étais maintenant, à l’écoute d’une archive sonore. !
3 L’enregistrement : un enregistrement sonore nous permet d’entendre maintenant des sons qui se sont produits antérieurement.
Il va sans dire que l’auditeur n’écoute pas de vieilles vibrations qui, comme les « paroles gelées » de Rabelais, auraient été conservées dans un frigo et qui ressusciteraient par la magie des machines ! Non, ce qu’il entend, ce sont les sons produits, dans le haut-parleur, par la « lecture » des informations qui constituent l’enregistrement. Un enregistrement n’existe que par le truchement d’un haut-parleur qui diffuse des sons réels. Alors, quel est notre sentiment quand, par exemple, nous écoutons l’enregistrement de la voix d’une personne connue, mais disparue ?
L’enregistrement créateur d’Arts : l’art du montage
C’est le cinéma qui a inventé le « montage ». C’est à dire, le choix et l’organisation de portions de pellicules (les rushes), qu’on met bout à bout dans le but de créer une continuité signifiante appelée « film ». C’est avec le concept de film que le cinéma est devenu un art à part entière.
Vers 1930, avec l’invention du « cinéma parlant » (enregistrement optique), le son a aussi été « monté » afin que les fragments d’enregistrement sonores soient synchronisés avec les images. Le magnétophone
Avec l’apparition du magnétophone à bande, le montage des sons devenait possible dans d’autres domaines que le cinéma. Ce sont les Radios, vers 1950 qui ont adopté le montage et ont créé à leur tour des œuvres originales et un art spécifique : l’Art radiophonique.
Grâce au montage, le créateur se joue de nos oreilles et va « nous faire entendre ce qui n’existe pas avec des sons qui existent ».
Une foule de créateurs ont été séduits par les ressources du magnétophone. Ils ont inventé toutes sortes de disciplines nouvelles ; je pense notamment : à Pierre Schaeffer avec la musique concrète, mais aussi à Jean Tardieu et la fiction radiophonique, à Henri Chopin et la poésie sonore, et Yann Paranthoën et Alain Trutat, Bernard Parmegiani, André Almuro et beaucoup d’autres que j’ai eu l’honneur de connaître et de rejoindre dans leurs expériences et d’apporter, a mon tour, une modeste contribution (application de l’électroacoustique au théâtre). Tous faisaient de l’enregistrement sonore et du montage et, bien sûr, leurs œuvres ne pouvaient être entendues que par le truchement d’un haut-parleur. Étaient-elles intemporelles ?
Temps réel ou différé
Avant de pouvoir disposer des moyens d’enregistrement et de diffusions sonores, les notions de « temps réel » et de « temps différé » n’existaient pas.
En 1952, lorsque je commençais à jouer du « magnéto » dans les studios consacrés à la création électroacoustique, ces questions de temps relatifs, ne se posaient pas beaucoup.
À la radio, il était habituel et utile d’informer les auditeurs de la temporalité de l’émission pour éviter la confusion. D’ailleurs, le direct (temps réel) a eu, très vite, la préférence du public. Le « différé » étant, semble-t-il, mal ressenti ; voire considéré comme un bricolage de la « vérité » ! Il n’y a pas qu’à la Radio que le temps différé est « mal vu » ; j’évoque le scandale du « playback » !
Avec l’objet sonore et l’écoute réduite (s’affranchir de la causalité des sons), Pierre Schaeffer a, indirectement, proposé une solution à l’écoute des enregistrements. Il n’est pas certain qu’on ait bien compris ce qu’il voulait nous dire.
Mettre en opposition le temps réel et le temps différé, n’a de sens que dans l’hypothèse où ces deux situations se présentent simultanément. C’est le cas de la musique « mixte » ; d’ailleurs, ce sont les musiciens qui éprouvent certaines gênes lorsqu’ils jouent en direct avec l’intervention de sons enregistrés ; pas les auditeurs.
Dans la situation terriblement ambiguë du concert électroacoustique, les musiciens se sont longtemps prêtés aux expériences des créateurs des studios.
Aujourd’hui, avec l’irruption et la suprématie de l’informatique, les choses ont beaucoup changés et l’électro-acoustique et l’enregistrement ont été instrumentalisés au service des « envies » des compositeurs et des interprètes de musiques instrumentales.
À l’époque de Répons (1981) Pierre boulez a profondément révolutionné le statut de la musique électroacoustique. Dans cette pièce « historique » le centre du lieu de concert était occupé par un orchestre de chambre autour duquel, il y avait le public, lui-même entouré par des instruments solistes qui étaient reliés à un gros dispositif informatique chargé de transformer et de spatialiser le son de leurs instruments. Un dernier cercle de HP fermait le dispositif. Ces HP, en plus de la diffusion des signaux provenant de l’ordinateur, diffusaient des enregistrements sur bandes. Dans sa présentation, Boulez indiquait que le rôle des magnétophones était de produire, de temps en temps des sons faisant office de « papier peint » (interlude) pour meubler d’éventuels silences imprévus !
Temps réel et temps différé
Pour l’informaticien, un système en « temps réel » c’est un système qui fait beaucoup de choses en un temps si court (instantanément !) qu’on ne perçoit pas le délai (latence, temps différé) qui existe entre la commande et son exécution ; entre l’entrée des données dans le système et leurs sorties après transformation. Le temps différé est ici ressenti comme une paresse ! Il va sans dire que les musiciens vont beaucoup apprécier ces dispositifs en temps réels, car cela va leur donner une infinité de nouveaux registres à leur jeu instrumental.
En trois décennies, l’IRCAM a réussi à faire que l’art « Haut-parlant », que les artistes des premiers studios avaient développés, soit tombé en désuétude au profit de logiciels de générations sonores concoctés par des ingénieurs.
Plein de regrets et de nostalgie, je me console en écoutant ces nouvelles manifestations de MAO sur mon antique haut-parleur… en léger temps différé, quoique paratemporel !
Pierre Boeswillwald. 16 novembre 2013
(1) Il y a eu, d’abord, la « mécanoacoustique » et il y a aussi l’électro-optique qui est souvent associée à l’électro-acoustique.
(2) On peut dire que la sonnette est le plus ancien instrument de musique électroacoustique, car à l’époque, on a imaginé et peut-être construit, des carillons de sonnettes avec claviers ! Le carillon de sonnettes ne semble pas avoir eu un grand succès, mais le même principe est toujours appliqué aux carillons de cloches dans les beffrois.
(3) Roland Barthes dans son livre La chambre claire s’est interrogée sur la nature de la photographie. Vers 1953, au studio de la maison des lettres de la Sorbonne, il avait aussi commencé à s’interroger sur la nature de l’enregistrement sonore. Il ne semble pas qu’il ait laissé des traces de ce travail. (4) En gros, l’électronique est la partie de la physique appliquée, qui traite, notamment de la mise en forme et de la gestion de signaux électriques. (5) Le haut-parleur est un transducteur (convertisseur). Il convertit les variations d’un courant électrique en variations analogues de la pression atmosphérique (onde sonores) aptes à être entendues par un auditeur.
(6) Pratiquement, le haut-parleur est toujours associé à une enceinte. Si, aujourd’hui, la qualité acoustique de la diffusion sonore est devenue très grande, c’est pourtant toujours les mêmes principes électroacoustiques qui sont mis en œuvre !
(7) En dernière analyse, écoutées sur HP ; l’analogique et le numérique sont confondus !
Version pdf