Association des enseignants et enseignantes de la composition en musique électroacoustique

foire aux infos



  • L’Interprétation Acousmatique de Jonathan Prager

    Fondements artistiques et techniques de l’interprétation des oeuvres acousmatiques en concert

    (texte de référence en matière d’interprétation acousmatique, mis à disposition par l’auteur)



  • Article « Perspective Holophonique » d’Alain Savouret – JNME 2013 Amiens

    (N.B. Alain Savouret a écrit cet article après les JNME 2013 à Amiens pour compléter son article paru dans ÉlectrOpuscule n°1. Celle-ci est une réédition en ligne de l’article proposé par l’Aecme en 2024.)


    Perspective Holophonique

    « De quelle holophonie voulons-nous parler? »

    À l’intention des étudiants/stagiaires, quelques remarques postérieures à l’atelier « Holophonie » (Journées Nationales Électroacoustiques AECME au CRR Amiens, le 4 décembre 2013), et complémentant mon article paru dans ÉlectrOpuscule n°1 : « De la conjugaison du temps… »

    I –  Amont et aval du multicanal

    Dans un premier temps, et de façon un peu rudimentaire, parlons globalement de multicanal à partir du moment où plusieurs haut-parleurs sont mis en jeu dans un espace donné, haut-parleurs mis en vibration par une ou plusieurs modulations circulant à travers plusieurs canaux (on peut très bien concevoir une musique inscrite sur un support monophonique, et la diffuser en salle publique via une console multiphonique). Le survol historique tentera d’affiner l’approche.

    Distinguer l’amont et l’aval du multicanal (contraction de « réalisation multicanale » : mais faut-il rendre qualificatif le substantif multicanal ?) c’est distinguer :

    • d’une part la phase première de réalisation de l’œuvre qui s’opère en studio (autrefois la « cabine » du studio d’enregistrement), comprenant la génération des éléments/matériaux (prises de son ou synthèse), leurs traitements, leur assemblage (pré-mixages et mixage), ce qu’on peut donc nommer l’amont de l’œuvre
    • et d’autre part la phase seconde de réalisation de l’œuvre qui s’opère en un lieu autre que le studio ; c’est sa diffusion (ou interprétation ou projection, ou transmission) publique, qu’on peut nommer l’aval de l’œuvre.

    L’amont. Dans cette phase le compositeur (ou réalisateur) adopte des comportements spécifiques qui pourraient correspondre à des sortes de « métiers » distincts.

    1. luthier : il conçoit ou emprunte des « outils » de génération sonore, du micro aux logiciels de synthèse numérique. Ces outils sont personnels ou partagés dans le cas des collectifs de compositeurs.
    2. instrumentiste/improvisateur : il joue de ces « outils », se comporte en « interprète » façonnant la matière brute par bribes ou par séquences.
    3. compositeur : il organise et assemble les éléments façonnés et constitue des voies de mixage en vue du mixage final.

    Mais « quand » s’effectue ce mixage final : ici en amont, dans le studio, ou en aval, lors de la diffusion publique ?

    En effet, deux cas de figure se présentent qui sont même des options fortes pouvant avoir des conséquences stylistiques ou esthétiques si on les radicalise :

    1) le mixage final est « achevé en studio » (une « inscripture » définitive), dans la phase dite en amont de l’œuvre. Le compositeur « signe » à ce moment là son œuvre, la clôt. La diffusion publique, à la console, n’aura que peu d’incidences sur « l’essentiel » de l’œuvre, l’essentiel perçu par le public. Le mixage final en studio livre donc l’œuvre « prête à l’emploi »  puisque l’option du compositeur est de « projeter » sa pièce comme on projette un film. Dans vos expériences d’écoute vécues dans le stage, c’était bien l’option de J-F Minjard ou J-M Duchenne (multicanal dans une perspective myriaphonique aurait pu dire A.Moles) ou la mienne, plus élémentaire (multicanal dans une perspective holophonique). Dans les deux cas l’interprétation publique à la console (en aval) est secondaire, voire négligeable.

    Raison pratique dans le cas des pièces de J-F Minjard et J-M Duchenne: c’est digitalement impossible de contrôler en « temps réel » de 22 à 32 voies ! Une première raison élémentaire mais suffisante. Il y en a d’autres, plus subtiles, que les intéressés ont développées dans le stage. Dans mon cas (atelier « pentaphonique » du 4 décembre) je rappelais que le transfert global d’une prise de son tétra, penta, ou hexaphonique (voir plus) que l’on voudrait imposer comme simulacre de la réalité sonore captée, est très difficile à rendre sensible, efficient (réglages complexes entre le niveau d’intensité des haut-parleurs, leur éloignement, leur hauteur, etc.). Et une fois trouvé ou approché au mieux le bon réglage, la moindre action dynamique sur une des voies de console détruit l’équilibre relatif des phases et annule la sensation d’une présence « holophonique » dans l’espace de diffusion et ce surtout dans le cas d’évènements qu’on disait « réalistes » (tout ce qui ressort de « l’audible nommable » propre à chacun).

    • Un élément, un moment, un « événement » réaliste pourrait englober de ce que nous avions nommé plus singulièrement une phonographie avec Jean-Léon Pallandre, au début des années 90, dans le cadre d’une maîtrise d’œuvre dans le quartier du Fort-Nieulay à Calais. Nous allions plus loin dans la définition : « La phonographie comme captation microphonique volontaire, cadrée, intentionnelle d’une réalité acoustique dans le but, l’espoir au moins, d’en suggérer ou révéler un sens qui ne se confond pas avec la signification anecdotique de cette réalité ». Ou encore : « …l’envie de faire dire à la phonographie, par simple cadrage, ce qu’elle cache sous sa surface, son apparence ».
    • Ici et maintenant, dans cette perspective holophonique, un événement réaliste est pour moi celui dont on a déjà une expérience sensible (« l’audible nommable »), vécue et mémorisée en amont du « simulacre espéré » lors de la diffusion (voir plus loin « Totalité ou globalité »). Il y a reconnaissance immédiate d’une situation sensible vécue. En perspective holophonique on tente d’aller au-delà d’une re-présentation de l’événement (comme avec une image stéréophonique), pour atteindre un simulacre de présentation, c’est à dire pouvoir se dire :« ici et maintenant, j’ai la sensation d’y être ! »…
    • Petite remarque personnelle supplémentaire, c’est la pièce Hétérozygote de Luc Ferrari, que j’ai « n » fois défendue à la console, qui m’a convaincu d’inventer (aussi) de la musique avec les moyens électroacoustiques. C’est bien la moindre des choses que d’essayer, dans cette filiation, de dépasser la re-présentation stéréophonique de l’époque par une présentation holophonique (simuler du présent, un ici et maintenant tangible) : 1) en appui sur la technologie du multicanal et, 2) avec l’adoption par exemple d’une situation d’écoute circonvoisine (dès-orientée) donc non-démarcative (non orientée dans un axe frontal). Ce projet est peut-être l’amorce de ce que j’aimerais nommer, pour voir et débattre, un « nouveau réalisme haut-parlant» (ou bien même un « nouvel anecdotisme » si l’on souhaite aller jusqu’à la provocation de ceux, les malentendants des années 50, qui ont dénigré, au-delà de la musique, les conquêtes « concrètes » d’après-guerre, en théâtre, en radiodiffusion, en littérature, en cinéma).

    2) le mixage n’est que partiellement achevé dans l’amont de l’œuvre et c’est dans l’aval de l’œuvre (sa manifestation publique) que le compositeur estime totaliser les différents rôles qu’il a pu jouer en phase première de réalisation, dans le studio. Mais aux « métiers » exposés en a), b), c) il va ajouter un d) qu’on peut nommer diffuseur ou interprète et qui va s’exprimer, hors studio de réalisation, dans le lieu public. En simplifiant, disons que la composition de l’œuvre ne s’achève qu’à ce moment-là (par exemple, Pierre Henry a été le grand défenseur du mixage final « en direct », parfois en sur-jouant la situation par un dispositif technique habilement mis en scène : plusieurs magnétophones à vue en plus de la console de diffusion).

    L’aval. Concernant celui-ci, je renvoie à mon article « Conjugaisons du temps » dans ÉlectrOpuscule n°1, paragraphe III : « Les glissements progressifs du plaisir…vers la scène ». J’y évoque cette phase de transmission publique en proposant schématiquement trois cas de figure qui développent l’aval en question :

    • soit la « projection neutre » comme celle d’un film cinématographique : jeu « effacé » à la console « transparente » pourrait-on dire, simplement contrôlée (niveau global) par le compositeur-accompagnateur. Dans ce cas, prédominance de l’amont sur l’aval et vraisemblablement nécessité d’un positionnement spécifique des haut-parleurs impérativement lié à la conception initiale de la spatialité (mode d’occupation de l’espace) de l’œuvre.
    • soit la « diffusion interprétable », jeu actif sur la console (elle-même plus ou moins active) par le compositeur-chef d’orchestre : c’est la cas le plus fréquent dès qu’il y a installation d’un ensemble diversifié de haut-parleurs ; le compositeur doit adapter son interprétation au dispositif.

    Pour une approche affinée et documentée du sujet, je recommande la lecture des Actes III (1997) de l’Académie Internationale de Musique Électroacoustique/Bourges : « Composition/Diffusion en Musique Électroacoustique » (Ed. MNEMOSYNE). Une véritable somme, où vingt compositeurs de plus de dix pays y manifestent leurs expériences de la relation entre ce que l’on peut nommer l’amont et l’aval d’une œuvre.

    • soit, cas spécifique, une « diffusion/réalisation en temps réel » dont le « degré 0 » serait par exemple celui où les différentes parties/voix de la composition sont inscrites sur un support (historiquement, chacune sur un magnétophone spécifique), jusqu’au degré ultime où, présent sur la scène, le compositeur-joueur de laptop fabrique et diffuse, en temps réel, son œuvre.

    II – Approche historique – Distinctions terminologiques

    Essayons de trouver le chemin de cette « perspective holophonique » qui m’interpelle sous cette dénomination depuis les années 90, mais que j’avais mis en route sans la savoir nommer en 1970/1971, à partir d’expériences de prise de son concrète à 4 microphones conjoints pour 1 événement sonore, expériences faites en compagnie de Pierre Boeswillwald et Robert Cohen-Solal. Cela se déroulait au Studio 52 du Centre Bourdan, bâtiment abritant alors le Service de la Recherche de l’ORTF dirigé par Pierre Schaeffer.

    Pour retrouver des traces terminologiques et ce à quoi elles se réfèrent, je livre en vrac et sans corrections quelques notes prises après lecture d’un des opuscules édités régulièrement par le Festival Du Son sous le titre « Conférences des Journées d’Études » ; il s’agirait de celui de 1977 mais (correction à la main) plus vraisemblablement celui de 1975.

    Je notais donc : « …nombreux articles de personnes de référence : Condamines, Winkel, Moles……Ils sont donc rédigés principalement par des scientifiques, des ingénieurs, des sociologues, et la plupart du temps avec des visées techniques relatives à la prise de son, aux implantations microphoniques, aux angles, aux positionnements des H-P, etc….

    …il semblerait que le terme holophonie circule bien depuis les années 70, y compris pour des notions de stéréo holophonique !!! (stéréo de phases ? où la profondeur serait particulièrement soignée ?)…

    …des confusions possibles avec la tétraphonie dite aussi (visée commerciale)
    « quadraphonie » (les tentatives d’édition de disques noirs en « quadra » qui échouèrent). Remarque : il faudrait arrêter de mélanger latin et grec…

    …quelques bonnes intuitions malgré le manque évident d’expériences publiques (sauf Condamines) et peu de questionnement sur le ressenti du point de vue d’un auditeur sinon qu’il devrait, chez lui, avoir la sensation d’être dans une salle de concert et « …en fermant les yeux, voir apparaître à travers nos deux oreilles, le fantôme acoustique de l’orchestre étalé sur la scène comme il se doit » précise ironiquement Abraham Moles, dénonçant par là le kitsch spatial qui s’en suivra dans les projets des ingénieurs du son influencés, sinon manipulés, par le milieu économique et « marchand ».

    À lire, donc, ce très bon article d’Abraham Moles ; le titre, déjà, dit beaucoup : « Stéréophonie, tétraphonie, Myriaphonie : vers la sensualisation sonore de l’espace ». En un seul titre il résume l’ensemble de mes préoccupations, et me fait tristement regretté la méconnaissance que j’avais alors de sa réflexion sur le sujet, moi qui « bricolait » empiriquement et musicalement dans mon coin depuis cinq années. À mon crédit malgré tout, après les essais cités plus haut au studio 52 du Centre Bourdan, deux œuvres tétraphoniques : L’arbre et cætera (1972) et La valse molle (1973).

    Dans sa communication il fait une remarquable prédiction des bonnes questions à se poser encore maintenant, en 2013. Il n’hésite donc pas à critiquer la dimension marchande (non avouée) des projets de « tétraphonie » chez l’habitant (même engouement que pour notre 5.1 récent !) et la difficulté de positionner quatre h-p dans un salon encombré («… Tétraphonie, nouvel avatar d’Euterpe dans la société technologique »).

    On peut corriger maintenant l’aspect péjoratif de sa remarque car il parle en fait de multicanal à 4 canaux ne s’inscrivant pas du tout dans ce que je définis comme une démarche holophonique (captation et diffusion à 4 ou 5 ou 6 ou 8 micros/haut-parleurs rigoureusement conjoints et symétrisés pour « un » événement acoustique) ; démarche permettant d’entrer dans le domaine de la sensoricité (champ de la psychologie de la sensation à explorer, prolongement de « la sensualisation de l’espace » de son titre). Il poursuit : « En fait, comme nous le constatons en stéréophonie, si l’auditeur se rapproche trop près de l’une des sources, il tombe sensoriellement dans l’orbite de celle-ci qui devient si dominante que le rôle des autres en est largement minimisé, et qu’en fait, nous sommes dans un système monophonique local assaisonné au paprika spatial »…C’est toute la différence entre une prise de son 4 pistes (ou 4 canaux ou quadraphonique) et une prise de son tétraphonique (ou penta ou hexa) telle que je l’ai expérimentée. Avec ces expériences que j’ai pu mener plus tard dans les années 1990, j’aurais pu alors lui faire entendre la différence entre la pré-parence et la trans-parence du haut-parleur ; par exemple distinction entre La conférence illustrée et égarée du professeur Coustique (stéréophonique/1977) et Le son de choses II : la composition commentée (pentaphonique/2011, titre toujours provisoire) que j’ai diffusée, non, plutôt projetée pendant l’atelier.

    Abraham Moles anticipe aussi sur la création d’un « fauteuil à oreilles », type Voltaire, proposant une mini-tétraphonie que bien des concepteurs actuels ont, peu ou prou, mis en œuvre (par exemple, les « Acoustigloos » du GMVL).

    Il évoque souvent la « localisation des sources », comme souci principal des professionnels du son ; l’auditeur est la plupart du temps « orienté » par rapport aux haut-parleurs, en position assise, le plaçant en situation d’écoute que je nomme démarcative (re-présentation frontale, axée, de l’acte musical). On pourrait maintenant lui démontrer l’intérêt (déjà dit plus haut) de la situation d’écoute circonvoisine (tentative de présentation dès-orientée de la musique, public en cercle au centre d’une couronne de haut-parleurs).

    Il n’est pas systématiquement critique ni pessimiste puisque, plus loin dans son article, il écrit ce qui me mobilise encore ici et maintenant : « La fidélité, c’est un des critères de valeur possible du transfert de la communication. C’est l’idée de la recréation exacte d’un simulacre du monde (je souligne) en un autre point, en un autre lieu, dans laquelle l’idéal, dirons-nous l’idéologie, est de pouvoir procurer la confusion entre le simulacre et l’origine dans une recherche la plus exigeante de tous les caractères sensoriellement existants de ce simulacre. C’est le gradus et parnassum de la fidélité et nous soulignons combien la dernière marche de la pyramide était difficile à gravir » (oh combien ! j’ajoute). Plus loin : « Si l’art est une sensualisation programmée de l’environnement, l’art sonore est-il situé au départ ou à l’arrivée de la chaîne de transmission, et quel est le rôle de l’œuvre de départ si l’on veut juger la valeur esthétique de l’œuvre d’arrivée ? ». On ne saurait mieux dire, belle prémonition professeur Moles !

    Si l’on continue de remonter l’histoire vers notre époque présente, l’arrivée du DOLBY SURROUND pour le cinéma (années 80) puis du 5.1 à domicile (années 90) ne va pas faire changer les envies et globalement l’approche technique sauf en quantité et qualité des moyens au service de cette même « orientation », même si l’auditeur va être de plus en plus « entouré ».

    Mais la notion d’HOLOPHONIE, qui était plus justement, mais utopiquement, espérée dans les années 70, disparaît du vocabulaire courant au profit du MULTICANAL qui domine les manifestations écrites ou sonores, artistiques ou techniques sur le sujet et que l’ensemble du milieu « son » (des artistes aux industriels) défend en ce terme.

    Les dispositifs microphoniques se démultiplient (Cf. article très documenté sur Internet de Claude GENDRE), les restitutions suivent le mouvement, le spectaculaire est incontournable, mais les « contenus » ne semblent pas avoir, encore, rattrapés une telle débauche formelle de pistes (jusqu’à 22.2 canaux pour la N.H.K.). Les exceptions existent, je renvoie au concert de J-M Duchenne et J-F Minjard du mardi 3 décembre où c’est bien le « contenu » qui mène la danse de la spatialité mise en œuvre.

    Cela dit, on pourrait se poser la question de savoir si le multicanal commence à 2 canaux (mais dans ce cas l’usage quasi universel est de parler de stéréophonie) ou s’il ne concernerait que l’utilisation de 3 canaux ou plus (vers la myriaphonie évoquée par A.Moles). Les œuvres répertoriées 3 pistes (plutôt que 3 canaux) sont rares ; on trouve dans le répertoire du GRM de l’ORTF la pièce Prélude (1959) de François-Bernard Mâche (pistes : gauche-milieu-droite). En 1960, Iannis Xenakis compose Orient-Occident pour 3 voies séparées 38 cm/s dont une version 4 pistes/1 pouce sera réalisée en 1969.

    En effet, le magnétophone 4 pistes 1 pouce ne fait son apparition que dans les années 60 (en chercher l’année d’acquisition au Centre Bourdan, auprès de Francis Coupigny ou Jean-Claude Lallemand par exemple). Une bande magnétique de 1 pouce c’est 4 fois la largeur de la bande magnétique usuelle ! C’est dire la « qualité » de l’inscription du sonore capté sur une telle « quantité » de surface magnétisée : lors de la brève diffusion à l’atelier de mes premiers essais « tétraphoniques » de 1970/1971 nous avons été obligé avec André Dion de baisser de 12dB le niveau de la version numérisée « droite » effectuée quelques jours auparavant à l’INA/GRM. Aucun souffle, une présence du sonore remarquable qui tient aussi au fait, d’importance, qu’il s’agissait bien de prises de son « tétraphoniques » (pour mémoire, 4 microphones concentrés sur 1 événement) diffusées
    « droites » aussi, sans retouches aucunes, « dans le jus originel » de leur captation. L’amont et l’aval sont en équilibre maximal, comme en miroir.

    Alors que les pièces « quadraphoniques » (très mauvaise conjointure entre la langue latine et la langue grecque, déjà dit), ou « 4 pistes » des années 60, étaient majoritairement conçues en amont soit par mixage de 4 voies monophoniques ou bien par mixage de 2×2 voies stéréophoniques (par exemple en 1963 : Times-five de Earl Brown, pour ensemble instrumental et une conception stéréophonique 2X2 canaux avec, en aval, une projection sonore frontale étagée sur 2 hauteurs de plan). En exagérant le trait, on dirait que l’amont et l’aval était comme deux enfants d’une même mère mais pas du même père…Entre la génération des matériaux (prise de son ou synthèse) et leur monstration haut-parlante publique, un très long chemin était parcouru : traitements divers, montage, pré-mixage, etc…

    Concernant ce cheminement historique sur les rives du multicanal, ma pièce de référence « 4 pistes » (comme on disait à l’époque) a été Capture éphémère (1967) de Bernard Parmegiani, que j’ai eu l’occasion de diffuser plusieurs fois. L’occasion et la chance parce que c’est au cours d’une de ces diffusions (à Toulouse il me semble, 69 ou 70 ?) que j’ai eu cette sensation, brève mais mémorable, de ressentir la présence quasi palpable de la matière sonore se cristallisant en plein centre de l’espace (théâtre à l’italienne), à mi-hauteur, hors des haut-parleurs. Une sorte de coagulation substantielle du sonore.

    J’avais pu disposer en bordure de scène, à la face, deux haut-parleurs pour « canaliser » les pistes 1 et 2, puis à l’arrière de la salle, deux autres haut-parleurs pour les pistes 3 et 4 : un plan « quadraphonique » horizontal classique. Mais cette salle à l’italienne permettait de positionner deux autres haut-parleurs (3bis et 4 bis) à la face et en hauteur (loges latérales du deuxième ou troisième niveau), ce qui me permettait d’avoir un autre plan quadriphonique mais frontal et vertical. Et c’est au cours de la diffusion, dans un jeu alternant ou mixant les deux plans quadraphoniques, que, par hasard et d’une façon « éphémère » la bien nommée, cette sorte de coagulation s’est produite : une sensation non pas simplement de « quadraphonie » déjà pleinement satisfaisante (surtout dans les mouvements cinétiques) mais une sur-présence de la « substance » haut-parlante principalement, que je nommerai maintenant présence holophonique . C’est cette expérience marquante qui préludera aux modestes essais du studio 52 en 70/71, mais qui me poursuivra jusque dans les années 90, bien plus tard donc, où je multiplierai au studio Delta P de La Rochelle, puis au CNSMDParis, puis au GMEAlbi, ces quêtes holophoniques spécifiques.

    C’est dans ma pièce L’arbre et cætera que je chercherai, en 1972 (9 mois de gestation), à retrouver la sensation « capture éphémère », la « coagulation substantielle » de Toulouse et que je vérifierai dans cette expérience compositionnelle que la quadraphonie et la tétraphonie ne sont pas de même nature (quadra et tétra, ça fait deux !).

    Dans ce Rondo, j’expose un premier Refrain uniquement réalisé par montage de 52 formes- enveloppes tétraphoniques brèves ; 52 sortes de « mots » ou plus précisément « neumes à la Grégorienne » pour faire une longue phrase en trois sections (très long travail de montage/collage sur de la bande magnétique large de 1 pouce). Une monodie obligée donc, puisque je ne pouvais travailler qu’avec les sons originaux « tétra » inscrits sur l’unique magnéto 4 pistes de la cabine du studio 52. Ensuite je fis des réductions stéréophoniques puis monophoniques de ces 52 éléments originaux tétraphoniques ; je reconstituais alors, en respectant l’organisation syntaxique première des « mots » du Refrain, un second Refrain à partir des sons mono répartis, un à un, sur les enceintes. Ce fut ensuite la réalisation d’un troisième Refrain à partir du mixage synchrone de 6 reconstitutions stéréophoniques « traitées » du refrain (4 voix faisant le pourtour, 2 voix se croisant en diagonal pour occuper le centre de l’espace balisé par 4 H-P) ; l’expérience était de vérifier si en additionnant plusieurs voix stéréophoniques on pouvait s’approcher de la tétraphonie originale. Résultat négatif : à la diffusion, la « saveur » holophonique du premier Refrain tétraphonique original émerge de façon évidente et manque dans le Refrain « multi stéréophonique ». Même constat dans le cours de la pièce où, dans les trois couplets, je « truffe » les développements « multi stéréo » mixés de moments purement tétraphoniques (toujours par montage aux ciseaux « obligé » : un seul magnéto 4 pistes), évènements parfois même très brefs (moins de deux secondes). Ces inserts holophoniques (ici tétraphoniques) font des effets de rupture explosive de l’espace, ou de dilatation instantanée de la substance…expérience à vivre.

    III – Multitude ou Globalité – Quoi des perspectives holophoniques ?

    On pourrait, pour en finir momentanément et en simplifiant un peu, dire que deux grandes approches de la réalisation haut-parlante sont envisageables, sans exclusives. Mais que ces deux voies ne pèsent pas du même poids ni qu’elles ont les mêmes objectifs, c’est à vous de naviguer…à l’ouïe.

    La voie la plus empruntée reste celle qui, dans l’amont de l’œuvre, privilégie la composition en appui sur des techniques de transformations et transmutations complexes d’éléments/matériauxdivers. En aval, le développement du multicanal accueille ces techniques bras ouverts et encourage une certaine démarche « en appui sur la multitude » (formulation à approfondir) où, disons dans un premier temps, la totalité quantitative des moyens de produire et gérer du son dans un espace, par une haute technologie, est satisfaisante (s’informer du Festival du Son Multicanal de cette année par exemple). C’est la voie la plus conforme au milieu musical contemporain actuel.

    Dans l’autre voie, plus expérimentale, moins coûteuse parce que moins scientifique, et par là ayant moins pignon sur rue, j’élargirai la notion de réalisation haut-parlante en l’appliquant à d’autres démarches, d’autres contextes, d’autres visées et donc d’autres populations d’acteurs et de curieux de la chose haut-parlante. Cette deuxième nature de réalisation haut-parlante s’inscrit pour moi dans le grand champ de « l’auralité », toutes formes d’accessions à celui-ci comprises, et peut donc déborder le haut-parleur lui-même : car la musique électroacoustique m’est toujours apparue comme une musique appartenant à une plus large tradition « orale » comme on dit, et que j’affirme en l’écrivant « aurale » (auris, l’oreille). On pourrait parler de démarches « en appui sur la globalité » et non pas sur la multitude (formulations encore une fois à approfondir).

    D’expériences vécues, je peux retrouver ces « formes de penser et de faire des objets sonnants de tradition aurale » aussi bien chez les musiciens traditionnels (Auvergne, Bretagne, Pays Basque), que chez les audio-naturalistes (Fernand Deroussen représentant cette semaine cette démarche), que chez les improvisateurs non-idiomatiques, que chez les « phonographeurs » (Jean-Léon Pallandre et Marc Pichelin avec leur Compagnie Ouïe-dire), et d’autres encore.

    Ce qui caractérise ces « sociétés de l’auralité » apparemment disparates, c’est une propension à privilégier le contexte plutôt que le texte : se soucier de l’environnement des êtres et des choses qui les touchent, de s’en imprégner avant d’agir, d’être rigoureux quant au trajet qui s’effectuera en relation avec ces êtres et ces choses. Savoir conter le monde qu’on a la chance de voir bouger, et accepter de bouger avec lui.

    Dans la première voie par contre, la « contemporaine » pour faire court c’est le texte qui est déterminant, qui mobilise les énergies : il s’agit de réussir à engendrer un objet remarquable par sa résistance (éventuelle) au temps, un objet voulu indélébile sauf s’il finit, avec le temps qui passe, par se répandre fertilement sur le contexte qui l’accueillerait, maintenant ou plus tard. Les deux voies sont respectables et parfois, peut-être, peuvent se croiser.

    Mais je laisse pour l’heure ces généralités, pour retourner à ce complément d’atelier orienté vers l’holophonie, et donc sur les démarches à entreprendre ici et maintenant pour ne pas freiner son avancée, si on y trouve quelque intérêt.

    En démarche holophonique, il faut être convaincu que l’amont est déterminant, et que l’aval devra s’y soumettre. Je vois donc dans la captation microphonique multicanal bien des pistes à poursuivre. Il faut toujours commencer par « renoncer » si l’on veut adopter une attitude expérimentale. Par exemple, pour voir, on peut laisser de côté momentanément les prises de son objet par objet qui, après montage, traitements divers, pré-mixages sont inclus, en tant que « parties » dans un « tout » qui est la composition finale (méthode classique) ; ce serait donc renoncer à une sorte de démarche par la « multitude » des actions à entreprendre.

    On peut alors tenter des prises de son « holophoniques », des « tournages » de séquences entières « déjà » composées. Approche « globale » (plutôt que « multitude » d’actions) qui est celle pratiquée quand on réalise des phonographies comme celles présentes dans « Le son de choses » : c’est ce qui se passe en un certain lieu, en un certain moment, avec certaines personnes, qui devient la composition tout au moins une partie de celle-ci. Une composition adventice, on pourrait dire, à compléter ultérieurement si besoin est, par des mixages divers (nous ne sommes plus en 70 au studio 52 de Bourdan avec un seul magnétophone 4 pistes).

    Un tournage tétraphonique (4 microphones placés en croix, positionnés à hauteur d’oreille comme un parapluie) permet déjà d’expérimenter le pouvoir du microphone à vous faire entendre…ce que vous entendez du monde. Car les haut-parleurs seront là pour vous donner, comme le miroir le fait, un reflet du monde auquel vous avez choisi d’être sensible ; mais, encore mieux si vous travaillez bien votre instrument, ce ne sera pas le reflet « objectif » de ce monde-là mais le reflet de ce que « vous » entendez intimement du monde. Une bonne prise de son est une prise de sens, le sens que l’on donne, soi, aux choses de ce monde.

    Autre proposition de travail avec ce dispositif de prise de son (élémentaire par rapport aux systèmes développés un peu partout, mais suffisant) : ce serait non pas de tourner des séquences-évènements de la vie quotidienne (collectage), ou des phonographies, mais de « composer » pour un espace déterminé une séquence acoustique organisée avec l’aide soit de musiciens, soit de petites mécaniques diverses, soit d’animaux de compagnie bien dressés (tout est bon pour expérimenter !), et faire le « tournage tétraphonique » de celle-ci. Prévoir des gros plans, des plans lointains, des déplacements, et cætera: faire une partition spatio-temporelle qui sera interprétée autant de fois qu’il le faut jusqu’à la bonne prise. Je n’ai effleuré ce dispositif qu’une seule fois (la fin de Fragments, pour mémoire, fiction-documentaire sur le CNSMDP, image et son hexaphonique) ; ce moment me faisait penser à une « nature morte », les évènements acoustiques se produisant en boucle, sans variation notable. Cela me semble un bon exercice ; j’y reviendrai un jour.
    Par ailleurs vous avez fait diverses tentatives de prise de son multicanal dans le stage de composition multiphonique, bien sûr dans l’urgence propre à tout stage. Mais il y a eu aussi le concert d’œuvres pentaphoniques des étudiants de la classe d’André Dion au Zoo d’Amiens (collectage in situ) ; bref, ces différents éclairages ne peuvent qu’enrichir le questionnement sur des démarches
    « globalisantes ».

    Et depuis, vous avez eu le temps de réfléchir : ré-fléchir c’est se pencher à nouveau sur quelque chose qui à soulevé votre intérêt, quelque chose qu’on a sous le pied, souvent sans s’en apercevoir…


    J’arrête là ce complément, le récit de ces bribes d’expériences, il reste encore trop à dire ; mais surtout il faut laisser de la place à l’échange pour éviter les malentendus si courants dans les domaines du son. Ces remarques ont été écrites un peu rapidement, beaucoup de points sont à confronter à d’autres expériences artistiques ou scientifiques : chaque chose en son temps, comme on dit.

    C’est donc une sorte de « à suivre » qu’il faut nous souhaiter, ici ou là. Bon travail à tous.

    A.S. 10 décembre 2013


    Version pdf


  • ElectrOpuscule n°1 – JNME 2013

    (N.B. André Dion a édité cette première édition d’ElectroOpuscule lors des JNME 2013. Celle-ci est une réédition en ligne proposé par l’Aecme en 2024.)


    Temps Réel – Temps Différé

    ElectrOpuscule n°1

    de l’AECME

    Association des enseignants et enseignantes de la composition en musique électroacoustique


    Edité lors des 12èmes Journées nationales de la musique électroacoustique en 2013

    au CRR d’Amiens


    Imprimé par Amiens-Métropole

    Amiens, le 03 décembre 2013

    (voir tout en bas de la page pour la version pdf)


    Contenu

    André DIONElectrOpuscule

    Eric MULARDTemps véritable et temps enregistré dans l’ art électroacoustique enregistré : un jeu de ping – pong entre des écoutes.

    Jacques LEJEUNETemps réel et temps différé

    Dieter KAUFMANNTemps réel-temps différé

    Patrick ROUDIEREnseigner quels gestes, transmettre quels répertoires ?

    Christophe de COUDENHOVEMusique et Espace » : une expérience musicale et pédagogique multicanal.

    Michel CHIONQue la musique concrète n’est pas une musique en « temps différé » : contre un dualisme

    Alain SAVOURETDe la conjugaison du temps…

    I – Conjugaisons à réviser

    II – Retour sur le passé simple

    III – Les « glissements progressifs du plaisir »… vers la scène

    IV – La reprise en main du style

    V – Pour ne pas en finir…mais plus tard

    Jean-Marc DUCHENNEQuand je danse, je danse…

    Pierre BOESWILLWALDL’avènement de l’électro-acoustique ou le haut-parleur, l’auditeur et le temps.


    André DION
    ElectrOpuscule

    Bénéficiant de cette chance incroyable d’une deuxième édition des Journées nationales de l’électroacoustique organisée par l’AECME sur Amiens où j’enseigne cette musique au CRR sous la houlette de mon directeur Michel Crosset, j’ai souhaité, puisqu’également secrétaire de l’AECME, avec sa présidente Lucie Prod’Homme, fixer quelques réflexions qui foisonnent durant celles-ci, afin de contribuer aux réflexions sur l’enseignement de cet art.

    En 2012, le thème des Journées, Le son, le sens, très porteur, s’il avait suscité de vives discussions, n’a laissé, hélas, aucune trace, du moins consultable. Cette année, l’AECME est très heureuse de vous proposer ce premier opuscule sur le thème des Journées 2013, Temps réel –Temps différé.

    Pourquoi ce thème ?

    Il vient d’un décalage croissant entre deux concepts de concert de cet art. D’une part, une rencontre entre des compositeurs fixant patiemment sur support des sons (souvent injouables en direct) et un public acceptant de se réunir pour seulement entendre ces oeuvres conçues dans un temps différé, sans rien voir de la source de ce qui se fait entendre.

    D’autre part, un retour d’un visuel scénique de faiseurs de sons en temps réel, improvisateurs ou non, virtuoses puisque souhaitant produire de l’électroacoustique en direct via tous les contrôleurs possibles avec leurs seuls mains, bouches ou pieds, forcément limités, mais ramenant la perception à cet instant T tellement excitant, du moins déjà pour eux.

    Deux temps pour un même art ?

    Neuf personnes ont bien voulu écrire là-dessus, laisser une trace consultable, contribuant généreusement à notre réflexion commune, et à la naissance de ce premier ElectrOpuscule.

    André Dion, 3 décembre 2013


    Eric MULARD
    Temps véritable et temps enregistré dans l’ art électroacoustique enregistré : un jeu de ping – pong entre des écoutes.

    Le thème ainsi présenté me renvoie d’emblée et essentiellement à l’expérience en tant que créateur, autrement dit, à un temps vécu donc à un ressenti «au fil du temps »… qui pour moi représente plusieurs décennies.

    Ces deux considérations de temps, j’allais dire discrimination, entre temps réel et temps différé, participent du déroulement de toute création en art électroacoustique sur support et du même coup, en définissent une des essences irréductibles de celui-ci.

    Le distinguo entre un temps réel et un autre différé (différent ?), c’est une façon de rendre compte que deux sphères habitent l’artiste une fois embarqué dans son projet : deux sphères de nature polymorphes , au sens où le conscient et l’inconscient, l’irrationnel et le rationnel, l’émotionnel et le réfléchi sont dans un jeu alternatif, plus exactement co- génératif.

    Essayons de visiter un peu ces deux sphères :
    – Le temps réel est d’abord le moment de l’envie, le désir de projet plus ou moins confus plus ou moins abstrait, le moment où des «chimères à ouïr » hantent mon esprit. Un moment de fougue, qui vous prend, vous saisit, vous excède et finit par vous emporter dans une euphorie qui vous enjoint à faire, à fabriquer à accoucher de prémisses puis de matériaux puis de matières dévolues à l’écoute «haut-parlante» (hp).
    Autrement dit, c’est le moment de l’acte, de l’action en continu, sans rupture temporelle substancielle entre la cause (captation de son) et l’effet sur mon écoute hp.

    – Le temps différé renvoie pour moi à une prise de recul, une prise de distance, une écoute en surplomb et non en direct de l’acte qui en est la cause, un temps différent du faire.
    L’écoute en temps différé suppose une rupture temporelle plus ou moins longue entre les deux temps d’écoute qui peut aller de quelques heures à quelques semaines, voire plus.

    Je dirai que le temps différé est pour moi comme un «juge de paix ». C’est le moment de l’appréciation, du bilan provisoire où je sélectionne, je choisis, j’estime pour … in fine construire et/ou reconstruire. C’est un espace/ temps où se façonne peu à peu une cohérence, s’élabore une sorte de récit, de scénario, soumis dès lors à mon écoute hp.
    Celle-ci devient dès lors, l’écoute d’un auditeur – lecteur – juge.
    Juge de paix en effet, le temps différé invite subrepticement à une confrontation entre mon intention de départ, mes «chimères à ouïr» et le résultat tangible de ce que j’écoute

    Alors, distance ou adéquation entre les deux ?
    La réponse se traduira par un éventail d’attitudes qui ira du statuquo à la volonté d’un nouveau départ du projet, donc à nouveau l’immersion dans le temps réel de l’action qui elle-même appellera un temps différé et ceci ainsi de suite, comme un jeu de ping -pong entre les écoutes …jusqu’au moment où le temps différé mettra mon écoute hp -auditeur- lecteur-juge- dans l’attente d’une complétude.

    Ainsi donc l’art électroacoustique enregistré par le fait qu’il n’a de réalité tangible que par l’intermédiaire d’une trace, d’un support, immerge l’artiste dans un aller et retour entre « le faire et l’entendre » comme l’a écrit Pierre Schaeffer, autrement dit , invite l’artiste à jouer simultanément deux rôles : être acteur et spectateur de son propre objet de désir.

    C’est un prodige de cet art si singulier que d’offrir à l’artiste l’opportunité d’une confrontation entre le désir idéel et sa réalisation.

    Eric Mulard, septembre 2013


    Jacques LEJEUNE
    Temps réel et temps différé

    Il me faut tout d’abord clarifier mon ressenti concernant la juxtaposition de ces deux expressions.Le temps consacré à mon expérience pédagogique, c’est-à-dire le temps de mon savoir transmis à mes élèves, modifié bien sûr avec les apports technologiques qui sont apparus, résidait dans un temps réel puisque le but était d’apprendre des choses formatées, alors que le temps différé, me semble-t-il, est celui beaucoup plus personnel et aventureux du compositeur, c’est-à-dire un temps fluide qui représente une vie entière et qui englobe tous les chemins que j’ai pris. J’ai moi-même appris, après avoir commencé par la musique instrumentale à la Schola Cantorum en 1958, la musique concrète telle qu’elle était enseignée au Conservatoire National en 1969, puis par la suite, au début des années 1970, la pratique du synthétiseur à laquelle se sont rajoutés les moyens de l’ordinateur.Mais je pense qu’à ce stade, il s’agissait toujours de la même musique qui avait évolué dans un même temps, même si celle-ci avait subi des différences dans les jeux et les procédures musicales. C’était la même chose, c’est-à-dire le temps de l’évolution d’une situation. On pourrait parler alors d’un temps simplement déduit d’un autre (comme par exemple les variations sur un thème de…, les paraphrases…, les transcriptions instrumentales, etc.)

    Et l’on pourrait aussi parler d’un temps évolutif pour le parcours organologique du clavier qui, de l’épinette ou du clavecin, a évolué vers le pianoforte et le synthétiseur ou bien pour l’enregistrement des sons concrets et réalistes par le microphone et leur écoute sur plusieurs haut-parleurs s’adjoignant à leur tour un son délivré par des générateurs électroniques puis par les manipulations de l’ordinateur. Ainsi c’était une musique qui se continuait dans une aventure s’enrichissant de la technologie.

    Pour moi, l’oeuvre revisitée avec un temps de réflexion, qui apporte à celle-ci un autre regard, quelle qu’en soit la nature, est celle qui obéit à un temps différé. Lorsque la vidéographie m’est apparue dans mon champs de vision électroacoustique, j’ai bien vu, (bien évidemment, comme nombre d’autres compositeurs), que cela pouvait apporter un plus. Et j’ai senti alors, qu’il me manquait l’image et les mots.
    Je sais bien que la musique destinée aux haut-parleurs est une musique d’images et de transparence (comme le cinéma) mais je parle ici de l’image visuelle qui intervenait avec sa propre force et sa propre déformation aux côtés de la musique électroacoustique. Le mot n’était jusqu’à présent que peu de chose, comme par exemple la lecture ordinaire d’un texte écrit ou la voix synchronique des comédiens sur un film étranger, etc. Toutefois, à partir de la vidéographie, le mot a pris une tout autre consistance. Il s’est mis à bouger malgré le temps nécessaire à la compréhension du texte, à se mouvoir comme le faisait déjà la musique et l’image. Le mot était devenu une image en danse, extrapolant son rôle simple de medium.

    Ainsi, un temps différent ne m’est apparu seulement qu’après la maturation des oeuvres musicales, qu’avec leur confrontation avec les mots-image dans une véritable écriture croisée. Pour me situer et me différencier, il m’a fallu donner un nouveau terme pour définir le croisement de cette écriture, à laquelle j’ai donné celui de Fable musicale. On connait l’origine de la fable dont je rappellerai le sens ci-après.

    Il y a eu donc un temps réel que jai transformé, sur la fin de mon expérience de compositeur, en temps différé. Le temps des mots vidéographiques étant venu, j’ai commencé à écrire une poésie correspondant à l’acte musical de mes pièces, que celles-ci soient vierges de texte ou qu’il y figure un texte dit et inscrit sur la bande. Mais tout ceci n’exclut pas d’écouter mes pièces dans leur format d’origine, encore que certaines d’entre elles ont pu évoluer en sens (texte antirrhétique ou de réfutation de ce que la musique pouvait laisser entendre, comme pour la « Messe aux oiseaux » par exemple).

    J’ajouterai que je préfère les faire entendre sous cette nouvelle forme dont je donnais la définition en 2006 : « Quant à la notion de fable, il en existe deux sens : l’un, comme matériau réaliste avant qu’il ne devienne vraiment musical, à l’image de la Fable grecque représentant la fiction mythologique connue à partir de laquelle s’est formé peu à peu le théâtre ; l’autre, à la fois comme structure du signifié et du signifiant de la fable musicale (musique sans ou avec texte ainsi que poèmes et dessins la mettant en perspective) ».

    Jacques Lejeune, 8 octobre 2013


    Dieter KAUFMANN
    Temps réel-temps différé

    À proprement parler, toute musique notée est en temps différé. On ne l‘entend que plus tard, lorsqu’elle est exécutée par des interprètes. La musique électroacoustique, par contre, est dès le début en temps réel, au moins pour son compositeur. Il peut entendre immédiatement ce qu‘il fait. Comme le sculpteur ou comme le peintre, il travaille directement sur sa matière, le son. Ce contrôle immédiat en studio demande une oreille attentive. Un compositeur de musique écrite, lui, peut suivre son imagination en se basant sur les expériences qu‘il a faites avec des pièces interprétées plus tôt. Ainsi Beethoven – presque sourd – pouvait créer grâce à sa mémoire.

    De ce fait, le travail acousmatique peut servir à toute sorte de compositeurs comme une « école d‘écoute », même s’ils ne souhaitent pas quitter le chemin de la musique écrite après avoir fait cette expérience.

    Avec la révolution numérique, la situation a changé : les ordinateurs du début avaient besoin d’un certain laps de temps pour calculer le processus indiqué par le compositeur. Ce retard signifiait pour le compositeur un retour à la partition, à une sorte de plan, comme c‘est l‘usage en architecture, donc un retour au temps différé, avec en plus la nécessité d‘apprendre les bases des théories de la programmation. Ce fut une période assez courte dans le cas de la musique sur support. En 1978, j‘ai travaillé à Paris avec le Syter du GRM en temps différé (« Le voyage au paradis ») et en 1994 à Marseille sur le Syter de GMEM en temps réel (« La mer »).Une autre situation se présente ensuite : le domaine de la musique mixée. Les instruments ou les voix sont en connexion avec des manipulations interactives en direct. C’est le« live-processing ». Le compositeur est l‘interprète qui déclenche divers programmes qui viennent moduler son jeu ; une solide connaissance de la programmation avant que le premier son ne devienne audible est donc nécessaire. Il faut alors une partition écrite, pour le musicien qui joue et pour le technicien qui règle le processus électronique. Si l’on compare la projection des œuvres acousmatiques sur support avec le cinéma, on peut placer l‘interprétation des œuvres live-électroniques dans le domaine « instrumental ».

    C‘est là, où l’« art acousmatique » et la« musique instrumentale » se rejoignent. On comprend alors que l‘art acousmatique, la vraie invention du 20eme siècle, ait de telles difficultés à être acceptée par le public des concerts traditionnels. On peut néanmoins se consoler par le fait, qu‘il a aussi fallu 50 ans au cinéma pour trouver sa place dans la société. Il faut de la patience pour familiariser ce « cinéma pour l‘oreille » avec la société, tellement fixée sur les aspects visuels.

    Dieter Kaufmann, 15 octobre 2013


    Patrick ROUDIER
    Enseigner quels gestes, transmettre quels répertoires ?

    Au cours de mes cinq premières années de travail au Conservatoire de Nîmes, j’ai donné un cours hebdomadaire de pratiques collectives, d’une durée de deux fois trois heures en quatrième année. Mon projet étant d’enseigner la création musicale en regard des désirs et des compétences musicales de mes élèves. Ce cours a donné naissance à un groupe d’intervention musicale à géométrie variable. Expérimentation commune sur ordinateurs portables et surfaces de contrôles pratiquées selon des modes d’action issus en droite ligne de la transmission des répertoires des musiques électroacoustiques. Des instruments traditionnels, ceux dont certains de mes élèves avaient la pratique, y ont aussi été associés. Le travail a porté sur les possibilités de production expérimentale de substances, séquences, formes musicales et, bien entendu, sur leur reproduction en situation de concert.

    L’objet de cet atelier a toujours été pour moi la création de projets personnels mis en oeuvre par un compositeur issu de l’ensemble et lui-même interprète de son propre projet ; et qu’il devienne par la suite l’interprète du projet d’un autre compositeur issu lui-même de l’ensemble. Selon le principe de la collégialité, c’est-à-dire par une gestion collective des problèmes de jeu, d’équilibre, de sonorité, d’écriture.

    Deux chantiers se sont ouverts simultanément : la maîtrise de l’acoustique de l’ensemble – l’orchestration des projets – et sa limitation en nombre d’intervenants – selon les principes de la musique de chambre, c’est-à-dire clarté et transparence.
    Comme il s’agit de compositions originales, il est nécessaire que chaque pièce soit identique à elle- même selon ses diverses présentations. Voir, dans l’idéal, qu’elle puisse être reprise par des interprètes différents sans n’aucunement être altérée dans ses significations musicales. Lorsqu’en amont je faisais allusion aux compétences musicales de mes élèves, je voulais signifier qu’il m’a fallu initier ce projet avec des musiciens ne maîtrisant pas la théorie de la musique, c’est-à-dire le solfège et l’écriture. Mais des musiciens qui, années après années, devenaient experts dans le détournement de logiciels dédiés à la production de musiques électroniques idiomatiques (Live Ableton, Max for Live), les forgeant en outils de création de musiques électroacoustiques savantes. Deux petites questions en incidente : l’idée de musique absolue pèserait-elle encore sur nos enseignements ? Serions-nous devenus les (petits) maîtres des musiques inactuelles ?

    Il nous fallait donc travailler uniquement sur la mémorisation, sans nous appuyer sur les modes de notations à l’oeuvre dans la musique contemporaine. Cela signifiait une mise en mémoire totale des différents paramètres du jeu et de leurs interactions. Ce qui, pour une pièce de dix minutes, représente, plus les projets se sont affinés, la prise en charge individuelle d’une centaine de matériaux, contrôles et traitements reproductibles, à quoi s’ajoute la mise en place collective de plusieurs dizaines de points de synchronismes.

    Je me suis souvenu bien évidemment de musiques d’autres traditions que la nôtre, celles de Bali et de Java plus particulièrement, qui constituent un immense corpus de centaines de polyphonies mémorisées. Ce que la mémoire joue pour un gamelang de 32 musiciens peut s’importer dans un trio de musique électroacoustique, même dans le cadre des pratiques amateurs de nos Conservatoires. Mais j’ai surtout puisé dans mon histoire personnelle de compositeur et d’enseignant pour la danse : voilà la chorégraphie, un art majeur dans le cadre de la tradition occidentale, dont la performance n’est pas assujettie aux principes de la notation.

    Mise en place exigeante dans le temps et dans l’espace, qu’elle soit chorale ou totalement « polyphonique » si l’on peut dire, une chorégraphie demande au danseur des centaines de points de synchronismes. Une partition des temps et des espaces ancrée profondément dans le corps. Polyphonies mémorisées, espace-temps vécu corporellement, voilà ce vers quoi cet atelier s’est très progressivement ouvert. Je suis assez heureux de constater que la double conscience du métissage et de l’hybridation – comme si nous l’avions perdue -réponde de pratiques musicales qui ne semblaient, à priori, relever que de la subjectivité et de l’émotion. Ce qui se trouve à la source de ce qui se joue ici c’est la pratique des jeux musicaux dans le cadre ce que l’on nomme, en musique électroacoustique, la séquence-jeu. Quelques repères entre autres : Variations pour une porte et un soupir de Pierre Henry, Mikrophonie I de Karlheinz Stockhausen, Etudes aux modulations de Guy Reibel. Soit des séquences-jeu pour sons fixés sur support, dans le cas des Variations ; une partition totalement fixée pour dispositif électroacoustique utopiquement maîtrisable, dans l’exemple de Mikrophonie I ; les Etudes alternant quant à elles des séquences-jeu de sons fixés et une réalisation, un mixage ouvert sur magnétophone multipiste à idéalement projeter dans l’espace. Pour ce qui est des musiques de haut-parleurs, la séquence-jeu a toujours constitué une sorte de point aveugle: ni création musicale instantanée, puisque toujours à retailler par toute la troupe des techniques d’écriture électroacoustique, une pièce d’étoffe éternellement retouchée ; ni surtout pas ces fragments de matériaux échantillonnés, aisément fragmentés mais fragmentaires par inconvénient, à la manière de ces échelles de fréquences et collections de timbres de la musique électronique d’antan. Tache aveugle elle l’est certainement parce que toute séquence-jeu se mesure à cette dimension que l’on appelle haptique, celle qui par définition concerne le sens du toucher. Celle qui, comme une deuxième peau, nous éprouve par le toucher. Séquence-jeu mon amour, ces gestes érotiques si grandement absents de nos musiques contemporaines. Pour boucler la boucle, je dirais que je ne peux transmettre à mes étudiants que les gestes qui nous trahissent. Déjà au Conservatoire en 1980, j’étais totalement impliqué dans un quatuor de musique composée, jouée et improvisée, Partiels, dont les autres membres étaient Eric Daubresse, Olivier Ducatel et Augusto Mannis. Même si le studio me fascinait par sa grande soumission aux images symboliques et les gardiens du temple de l’acousmatique m’ont assez reproché ce goût excessif pour la représentation – je ressentais le désir de phraser une musique d’ensemble totalement corporelle. À présent je me sens conforté dans la transmission de cet héritage. Et je dirige les oreilles de mes élèves vers le travail de musiciens d’aujourd’hui, l’ensemble Caravaggio en est la parfaite illustration, qui ont le goût pour cette aventure exemplaire.

    Patrick Roudier, 28 octobre 2013


    Christophe de COUDENHOVE
    Musique et Espace » : une expérience musicale et pédagogique multicanal.

    Origine, objectifs et contraintes :

    A l’origine du spectacle « Musique et Espace », il y a une très belle salle de 1800 m2, aussi grande au sol que haute ; une salle utilisée par le Centre d’escalade Altissimo. La Mairie nous a proposé d’utiliser cette salle comme lieu de concert. Pour nous, c’est à dire pour la classe de composition et d’informatique musicale de Montpellier, le premier objectif de ce concert fut tout de suite trouvé : mettre en valeur la salle d’escalade par le son et la spatialisation du son. Durant l’élaboration du projet, l’utilisation de la vidéo, d’éclairages et d’interventions de grimpeurs ont été ajoutés à la musique. Une contrainte importante a orienté les méthodes de travail futures : nous ne disposerions que d’une seule journée dans la salle pour installer le son, la lumière, la vidéo, répéter la musique et la synchroniser avec l’escalade ; la journée devant se terminer par le spectacle en soirée. Le spectacle devrait durer 45’.

    Dans les lignes qui vont suivre, nous n’allons pas parler de l’œuvre elle-même mais nous attacher à expliquer pourquoi nous avons fait le choix du support multicanal pour ce projet et quelles en ont été les conséquences dans le domaine de la spatialisation.

    Les choix et leurs développements :

    Compte tenu des caractéristiques de la salle et des contraintes temporelles décrites ci-dessus, nous avons choisi de réaliser une œuvre acousmatique multicanal entièrement composée et spatialisée à l’avance, fixée sur support. Il suffirait le jour J, de diffuser l’œuvre sans interprétation, moyennant quelques réglages d’équilibre sonore ne prenant pas trop de temps. Il aurait été risqué d’utiliser la traditionnelle stéréo interprétée sur acousmonium qui, pour une musique de 45’, aurait représenté une part trop importante de répétitions. C’était aussi l’occasion, en choisissant le multicanal d’essayer de penser l’œuvre acousmatique autrement et de mettre l’accent sur l’écriture dans l’espace, comme nous l’expliquerons plus loin. Cinq étudiants se sont partagés ce travail de composition.

    Une « grille » spatiale tridimensionnelle de 16 points de diffusion :

    Le support informatique audio que nous utilisions habituellement nous permettait assez facilement l’utilisation de 16 canaux indépendants; ce qui impliqua le nombre de points de diffusion à disposer judicieusement dans la salle pour mettre en valeur ses dimensions, ses caractéristiques architecturales, ses caractéristiques sonores. 16 points ont été placés à des altitudes

    différentes selon trois plans: 6 points au sol, donc au niveau du public, 6 points à 6 mètres au- dessus, et 4 points à 12 mètres au sommet de la salle. Cette « grille » spatiale une fois définie a constitué une donnée importante et omniprésente dans le travail de composition des étudiants.

    La préfiguration en studio :

    Il fallut alors imaginer une possibilité de préfiguration de l’espace 16 points dans le studio de composition qui ne possède que 6 enceintes. Bien que le Spat~ (Ircam) offre la possibilité de simuler n’importe quel espace avec n’importe quel nombre d’enceintes, nous avons préféré ne pas utiliser cette possibilité virtuelle un peu complexe à rendre correctement, et s’en tenir à une pragmatique conversion. Ce n’était pas parfait puisque cela ne tenait pas compte des altitudes différentes ni des distances entre haut-parleurs, mais ce système nous a tout de même permis de composer directement en 16 canaux et d’en rendre une bonne image sonore.

    Une partition préalable de l’œuvre :

    Un plan temporel découpé en 10 parties a été établi de prime abord, comportant des durées à respecter et les différentes thématiques à traiter. Ce plan temporel s’est peu à peu transformé en partition de construction de l’œuvre sur laquelle figurait en plus des éléments propres à écrire la musique, les interventions de la vidéo et des grimpeurs. Cette partition établie en amont de la réalisation de l’œuvre dans un travail de groupe, a permis ensuite de faire une répartition entre chaque étudiant : deux parties par étudiant pour lesquelles le compositeur avait toute liberté d’imagination en s’inspirant et en respectant les conventions de la partition commune.

    Les étudiants étaient habitués à la composition en stéréo, voir en 4 ou 6 canaux pour certains ; il leur fallait maintenant adapter leurs méthodes de travail en pensant leur musique par rapport à la « grille » spatiale évoquée plus haut.

    Spatialisation par points fixes et spatialisation mobile :

    Pour la spatialisation des sons, nous leurs avons proposé d’imaginer leurs polyphonies selon deux méthodes : spatialisation par points fixes et spatialisation mobile entre points.

    La spatialisation par points fixes a été la méthode la plus facile à utiliser par les étudiants, car il suffisait d’imaginer de quel lieu de la grille spatiale serait diffusé telle couche ou voix de polyphonie, tel son isolé, telle séquence. Cette méthode a favorisé la superposition de couches sonores et a facilité leur différenciation grâce à leur séparation dans l’espace de diffusion. Elle a incité à oser plus de mélanges sonores, plus de polyphonie car le travail de séparation virtuel qu’il aurait fallu faire en stéréo pour obtenir un résultat clair a été en partie simplifié grâce à l’éloignement entre les enceintes. Ceci garantissait dans la plupart des cas une séparation « naturelle » des sons.

    – Un espace tel que celui dont nous avons disposé, avec ses 30 m de large, 20 m de long et ses 12 m de hauteur a excité l’imagination des étudiants vers la création de mouvements spatiaux entre points de diffusion: cercles, spirales, mouvements de bas en haut, traversées d’espace, chutes, déplacements aléatoires, polyphonies de mouvements, vitesse de déplacement variable, etc. Pour de tels mouvements, l’utilisation du panoramique stéréo s’avérait insuffisante. Nous avons donc eu recours au Spat~ (Ircam) et à la programmation des mouvements en Max.

    L’outil de spatialisation (Spat~) et ses possibilités polyphoniques:

    Le Spat~ permet de faire bouger plusieurs sources sonores à la fois, dans n’importe quelle représentation d’un espace donné. Il suffit donc de lui indiquer la disposition des enceintes en distance réelle par rapport à un point central et de contrôler les objets permettant de faire bouger une ou plusieurs sources à la fois. Pouvoir contrôler plusieurs sources sonores en même temps a représenté un gain de temps considérable pour les étudiants puisque qu’il évite les nombreux pré- mixages qu’il aurait fallu faire à chaque fois si l’outil ne pouvait gérer la polyphonie. En effet, notons bien que le moindre mouvement spatial d’une source sonore mono à travers une grille de 16 canaux sollicite la plupart du temps la totalité des canaux ; surtout lorsque le mouvement traverse un espace virtuel, et génère de fait un fichier son 16 pistes !

    La description des mouvements dans l’espace s’est effectuée par programmation en Max, en contrôlant les coordonnées de la source. A ce stade, pour éviter la programmation, il aurait été possible de fournir à l’étudiant un système de contrôle par contrôleurs physiques, MIDI ou autres, mais nous ne l’avons pas fait par manque de pratique dans ce domaine. Mais l’intérêt de la programmation est qu’elle constitue une sorte d’écriture dont la trace peut être affinée, corrigée et variée.

    Une expérience acousmatique nouvelle :

    La plus part des étudiants ont utilisé les deux méthodes de spatialisation ensemble : l’une et l’autre permettaient de caractériser leurs idées musicales. Elles servaient également l’objectif premier de l’œuvre : mettre en valeur la salle par le son et sa spatialisation. Cet objectif couplé à l’utilisation du multicanal a incité l’étudiant à prendre conscience de la valeur compositionnelle de la notion d’espace en musique acousmatique ; également du lien qu’entretient le mouvement spatial avec l’idée musicale. Plus qu’une simple alternative à la stéréo interprétée sur acousmonium, le multicanal dans ce projet a été le support d’une nouvelle manière de penser la musique acousmatique : penser le son en même temps que son lieu de diffusion. Si, dans le cas de l’utilisation classique de l’acousmonium on peut parler « d’orchestration » du son, dans le cadre de notre projet, nous pouvons évoquer une « mise en scène » du son grâce aux possibilités du multicanal.

    Christophe de Coudenhove, 1er novembre 2013


    Michel CHION
    Que la musique concrète n’est pas une musique en « temps différé » : contre un dualisme

    La question temps réel/temps différé appliquée à la musique me semble pouvoir être traitée sur deux niveaux bien distincts : le fond de la question, et le fait historique d’une distinction que certains posent depuis peu entre des musiques qui, entre « réel » et « différé », relèveraient de l’un ou de l’autre; mais si l’on mélange ces niveaux, elle ne veut plus rien dire.

    Sur le fond, le « temps réel » (comme son corollaire, le « temps différé ») est une notion qui me semble philosophiquement absurde ou en tout cas problématique (le temps qui est passage, écoulement, peut-il être le moins du monde « réel » , et pour qui ?) Mais du point de vue de l’histoire des termes musicaux, la dichotomie réel/différé est apparue à une époque bien précise où elle venait remplir une certaine fonction, en l’occurrence de valorisation historique de démarches dites « live », qui, se trouvant apparemment fragiles, ont voulu se légitimer sur le dos d’une autre démarche, celle de la musique sur support de fixation, que j’appelle concrète. C’est par cet aspect historique que je commencerai.

    Vers les années 70 plus particulièrement se sont développées en effet des techniques de création électroacoustique et éventuellement de transformation du son devant le public : ce qu’on a appelé la « live electronic music ». A ce titre, je leur ai fait une place dans mes différents écrits (ouvrages, articles, entrées de dictionnaire) de l’époque sur la musique électroacoustique, place relativement équilibrée par rapport à la musique sur support, qu’on désignait à l’époque du même terme.

    Or, dans les années 70, un centre de recherche en France fut créé à grands frais et à grand bruit, sous le nom d’Ircam, et annonça qu’il allait enfin attaquer avec sérieux les domaines de recherche, et notamment de lutherie, que selon le fondateur de cet institut, Pierre Boulez , les centres existants n’avaient pas su aborder avec les bons concepts et les bons outils. Un département électroacoustique fut confié à Luciano Berio, que j’interviewai en 1975 à l’époque où l’IRCAM annonçait son projet (j’étais encore membre du GRM que je devais quitter en 1976). Pour Berio, l’idée était claire : on n’aurait bientôt plus besoin de support.

    Dans son esprit, et plus tard dans celui de nombre de compositeurs passés par l’IRCAM, les gens qui travaillaient sur bande magnétique (le support le plus courant à l’époque) ne le faisaient que parce qu’ils n’avaient pas encore les moyens de produire les mêmes effets en « temps réel » devant le public. Pour eux, il ne fallait plus que quelques années pour, avec les possibilités nouvelles qu’amenait l’ordinateur, proposer la même chose en direct.

    Je n’y croyais, et je n’y crois toujours pas. Mais je dois constater que dans beaucoup d’endroits institutionnels, la musique sur support, qu’on l’appelle « acousmatique » ou « concrète » (c’est la même) est marginalisée et traitée comme survivance archaïque d’une époque où on n’aurait pas pu encore obtenir les mêmes effets en « temps réel ».

    Pour illustrer le caractère aberrant de cette représentation de la musique sur support, comme relevant d’un « temps différé » je prends souvent l’exemple de mon Requiem, une œuvre composée pendant l’automne 1972 et l’hiver 1972-73. Même aujourd’hui en 2013, c’est-à-dire quarante ans plus tard, je ne pourrai faire la pièce en direct devant le public, fût-ce avec le matériel dernier cri. Pourquoi ? Pour une foule de raisons.

    D’abord, certaines textures sonores qu’on y entend ont demandé, pour être obtenues, plusieurs phases de copies répétées et nombreuses sur différents supports, amenant – puisqu’il s’agissait de copies sur bande – une certaine usure du son, un certain tremblé. Je partais de sons électroniques que je créais, mais dont ensuite je cassais la définition, un peu comme on assouplit un tissu, en le faisant « vieillir » par différentes techniques. Et certains timbres de voix proviennent de « tournages sonores » effectués à différents moments, selon les circonstances. Par exemple, un matin de novembre, je me suis réveillé avec une belle laryngite et j’ai eu l’idée d’utiliser cette voix caverneuse pour m’enregistrer disant le premier « Requiem » entendu dans l’œuvre. Celui qui écoute l’œuvre n’entend pas le seul reportage en différé d’une matinée de novembre 1972. Il entend le résultat d’un tournage sonore, qui a été répété, monté, produit pour l’enregistrement (la
    « fixation », comme je préfère dire), puis raccourci, monté, assemblé avec d’autres sons produits à d’autres moments. Enfin, le Requiem débute par une attaque brutale « aux ciseaux » obtenue par coupe dans un son électronique d’abord produit par moi au studio.

    Un effet aussi simple que cette attaque instantanée, dans un son que j’avais préalablement généré, me paraît impossible à obtenir et à maîtriser “en direct”, devant le public. Ou bien il faudra se donner beaucoup de mal pour « imiter » l’effet d’une coupe cut sur support.

    Avant la cinématographie et la phonographie, il était impossible d’imaginer l’univers du montage, des enchaînements subits. Une fois que sont apparus certains effets avec la pellicule, la bande magnétique, le trucage vidéo, l’enregistrement numérique, etc…, il est possible de chercher à obtenir en “direct”, comme disent certains, les mêmes effets, venus du support même, sans les fixer sur un support, mais dans la plupart des cas, cela me parait vain. Les sommes d’argent importantes (à l’échelle du budget consacré à la recherche musicale) qui ont été dépensées pour construire des machines de traitement du son en temps réel ou en très léger différé (du genre cueillir en “direct” le son produit par un violoniste et le renvoyer dans la salle totalement transformé) qui viseraient à imiter ce qu’on fait dans la musique concrète, me semblent avoir été gaspillées: les sons produits ainsi sont souvent très mauvais, et beaucoup moins intéressants – je pense par exemple à Répons, de Pierre Boulez.

    Au reste, la musique concrète ne consiste pas spécialement à “transformer” des sons, mais à les créer pour la fixation et à les monter (éventuellement à les mélanger), en passant par des étapes qui peuvent être très espacées. Dans certains cas, au contraire, il y a une seule étape, et il ne s’agit alors nullement de sons « traités », mais de sons créés lors d’un tournage sonore plus ou moins préparé, et ensuite remontés. Le premier mouvement de mes Dix études de musique concrète a été créé en une seule fois un jour de 1987, lors d’un tournage sonore, devant un seul micro stéréophonique, j’’y ai fait très peu de montage et aucune transformation. Ce n’était pas un moment spontané: j’avais déjà testé mes sources sonores et fait des essais.

    A l’inverse, certains des sons que l’on entend dans mes deux dernières pièces, La Vie en prose (créée en 2010) et la Deuxième symphonie (2012) résultent de phases de tournage sonore, de remodelage en studio et de mixage qui sont parfois très distantes dans le temps, étalées sur quatre décennies au moins: je travaille à cet égard comme certains peintres ou certains écrivains. Je demande alors : de laquelle de ces nombreuses phases le son final que l’on entend est-il l’écho “différé”? D’aucune, puisqu’il suppose d’une part la sono-fixation, et d’autre part puisque ces phases correspondent à une longue recherche.

    Lors d’un Séminaire du GRM, un membre du groupe moquait mon idée de « son fixé » en lançant comme une bonne blague : « et les silences dans tes œuvres, ils sont fixés eux aussi ? » Il ne croyait pas si bien dire : bien sûr, ils sont calibrés à la durée exacte ; parfois je m’arrange pour qu’on y entende le bruit de fond du support, d’autres fois, ce qu’on appelle en anglais un « room tone », le bruit moléculaire du lieu, d’autres fois encore, le signal s’interrompt complètement. Et enfin, leur durée est exactement voulue. Un bon monteur de cinéma sait la valeur d’un fondu au noir bien calculé, d une coupe, d’un plan court. C’est cela que m’offre aussi la musique concrète, parce que musique de sons fixés : des silences précis et d’une qualité sonore précise.

    Il y a certes une densité propre à l’émission d’un son de violon en direct, je suis bien d’accord. Mais je suis plus sceptique quand le son doit passer par « différents « tuyaux » de traitement en direct dont il ressort souvent insipide, flou, mou (cas, je l’ai dit, de tant d’œuvres avec « traitement en temps réel »). Mais il y a aussi une densité propre à un bon son fixé de musique concrète. Où est le temps réel, au sens de temps vivant ? Il est dans les deux cas. Je réalise en passant par la fixation une musique qui crée son propre temps, un temps qu’on peut dire si l’on veut « réel ».

    Ainsi, la musique concrète, d’autres l’appellent acousmatique mais c’est la même, n’a pas plus à voir avec la notion de différé que le cinéma n’’est du théâtre en différé, qu’il n’est qu’une simple « retransmission ».

    Le fait qu’il y ait une “musique de sons fixés” ne veut pas dire que ce soit dans le cadre d’un dualisme fixé/ pas fixé, aussi faux que le dualisme vers/prose (la prose ne serait que du non
    versifié ? Absurde !) ou le dualisme parlé/ chanté (alors qu’il y a aussi le déclamé, le récité, le hurlé, le recto tono, etc…), et que toutes les autres musiques appartiendraient à un même domaine, celui de la musique en temps réel. Les autres musiques que la musique concrète, sont aussi différentes entre elles que les pays non-européens ou non sud-américains le sont entre eux:

    Ce sont bien sûr les medias de la radio et de la télévision qui ont amené cette dichotomie direct/différé. Nombre d’émissions, aux débuts de ces media étaient faites en direct. Faute de supports pratiques et de qualité pour enregistrer, monter, mixer, etc…. Par la suite, on a continué à faire du direct… en différé. Si j’écoute l’émission-débat Le Masque et la Plume le dimanche soir sur France-Inter à 20 heures, je sais qu’elle a été enregistrée en semaine, et montée le moins possible (on entend simplement de temps en temps quelques points de montage, étudiés pour n’être perceptibles que par des professionnels). J’écoute donc l’émission en direct par rapport à son heure normale de programmation, mais en différé par rapport à la circonstance de son enregistrement. Ceux qui l’écoutent en « podcast » ont le sentiment de l’écouter « en différé » par rapport à la grille de programmation, mais s’ils s’intéressent à l’émission et la suivent, ils y ressentent quelque chose de vivant et de en temps réel, celui-ci fût-il recréé.

    La question est : c’est quoi le « temps réel » , en musique ? A mon avis, il n’y en a qu’un, et définitif, par définition irréversible, ayant donc les pleines propriétés du temps : c’est celui de mon attention à l’œuvre, ou au spectacle, ce jour-là, ce moment-là où je l’écoute.

    Si je vais voir le Ring de Wagner à l’Opéra-Bastille, je sais bien que la partition a été écrite au XIXe siècle, que les interprètes sont censés la respecter – et que les chanteurs doivent être très présents au son qu’ils produisent, la distraction ne leur est pas permise. Mais je sais aussi que parmi les musiciens de l’orchestre, il en est beaucoup qui, ayant souvent joué l’œuvre, ont l’esprit ailleurs, tout en ayant le corps présent, et fonctionnent en pilotage automatique. Ne parlons pas du public, trop souvent constitué de gens qui écoutent moins qu’ils ne réécoutent et qui affichent de manière parfois gênante leur manque de concentration, de présence à ce qui se passe.

    Le temps réel, s’il y en a un, est celui où il y a une écoute présente, même si c’est l’écoute d’un enregistrement.

    Pour ma part, j’ai une grande difficulté à vivre « dans le présent », même si tout le monde dit que c’est l’idéal, voire la norme ( « Sois de ton temps, vis l’instant », etc.) Je construis donc des œuvres de sons fixés parfois longues où le temps est structuré de façon à ce que pendant quelques minutes, souvent au milieu ou à la fin de la pièce en question, je me sente en harmonie avec le temps qui s’écoule, et vivant dans le pur présent. A ce moment-là, dans un autre sens que le sens courant, j’accède – et j’espère faire accéder l’auditeur, chez lui ou en concert – à ce « temps réel ».

    Michel Chion, 5 novembre 2013


    Alain Savouret
    De la conjugaison du temps…

    Depuis l’avènement de l’informatique, les deux locutions temps réel et temps différé sont passées dans les mœurs verbales du domaine couvrant la réalisation musicale à l’aide des outils d’aujourd’hui, où, en bout de chaîne, le haut-parleur reste incontournable, peu ou prou. Chacune de ces locutions renvoie à des techniques et des esthétiques toutes plus singulières et défendables les unes que les autres selon les lieux, les temps et les âges des capitaines. C’est dire si un consensus national dans une perspective pédagogique reste vraisemblablement un vœu pieux. Et c’est tant mieux pour le droit à la différence ; mais à la condition me semble-t-il pour les apprenants praticiens, que chacun des mots impliqués soit plus ou moins recadré dans le temps « historique » et dans l’espace « géographique » par les tuteurs en charge de formation, et que les sources soient autant que faire se peut situées.

    Bien sûr, la planète Internet est à la portée de toutes les bourses étudiantes, et dans ses nombreuses pages sur le sujet, elle y répond en partie, voire savamment, sur un plan disons informatif : tout est dit sur le real (hard ou soft) time, et sur le delayed time aussi. Celui qui veut approcher la pratique musicale « informatique » du bout des doigts peut s’en contenter, laptop sur les genoux. La M.A.O. sous toutes ses belles formes sait séduire : c’est une vraie déesse pour les uns ; et si c’est un dieu pour les autres, il se passera ce qui se passe souvent avec les dieux : on est trompé sur la marchandise.

    Ainsi la traduction en français qui est faite de real time et delayed time mériterait un regard collectif et critique, si on veut bien en convenir. Par exemple, est-ce vraiment le temps qui est réel ou différé ? Et qu’est-ce que serait du « temps irréel » ? Ou bien encore, dans ce temps différé, qu’est-ce qui est reporté, en sursis? À quelle phase de la réalisation musicale correspond ce report? Est-ce seulement la date de l’effectuation publique de l’œuvre? Car le « temps » de l’œuvre dans le sens de sa « durée », de son effectuation temporelle concrète, a déjà été fixé en studio : c’est du temps déjà « digéré », pas différé. Ou bien alors, c’est « l’interprétation » à la console qui introduit un nouveau « temps », à qualifier pour bien le distinguer. À nouvel espace, nouveau temps, répliquerait Einstein.

    D’ailleurs, concernant le temps réel, s’agit-il du temps de calcul d’un traitement (qui va maintenant plus vite que la durée du son qu’on veut traiter)? Ou bien, moins technologique, serait-il plus fertile de faire une approche philosophique du temps immédiat ou du temps instantané ? En quoi ces deux-là « diffèreraient », ou non, du temps réel et des pratiques musicales auxquelles on peut le rattacher ?

    De même, concernant le temps différé, ce temps repoussé, reporté : est-ce pour des raisons d’insuffisance technologique, de lenteur ou de vétusté programmée inhérente aux moyens utilisés ? Ou bien, n’y a-t-il pas à s’interroger sur la nature profonde de l’acte électroacoustique artistique inscrit authentiquement et durablement sur un support par son auteur. Il peut s’agir, pour certains dont je suis, d’une « inscripture » voulue de référence, définitive, une fixation d’exigences subtiles « incontrôlables », voire inanalysables, ressenties impérativement au moment du mixage final par exemple; j’y reviendrai. Et quels que soient les modes et outils de diffusion de l’œuvre qui autoriseront son effectuation publique ultérieure (sauf très grave « més-interprétation » à la console de diffusion), comme pour le geste du peintre sur la toile, l’émotion du geste ressenti « à l’instant » par le compositeur dans son studio (son repère alchimique) restera « tel que », transportable dans le temps et dans l’espace. Magnifique paradoxe de l’instant qui n’en finit pas.

    On prend trop vite dans notre société moderne des vessies pour des lanternes, un mot pour un autre, ajoutant de la confusion à la confusion internationale, souvent pour ne pas rater le train en marche. Mais on ne gagne pas grand-chose à rester à la surface des mots ayant même pignon sur rue; le temps et l’espace ont été de grands sujets de réflexion et d’expérimentation au siècle vingtième, et les musiques pour haut-parleurs ont participé grandement au festin. Ne prenons pas trop vite du time pour du temps.

    Bref, dès qu’on s’écarte un peu de l’opposition purement technique il y a de quoi émettre des réserves qui ne sont pas que lexicales quant au temps différé et au temps réel que beaucoup prennent pour le « p’tit nouveau » qui monte, new look, dans l’histoire. « Le temps réel n’est pas une panacée » dit Jean-Claude Risset dans son article « Temps et musique numérique » inclus dans l’ouvrage collectif « Le Temps en Musique Électroacoustique » (Ed. MNÉMOSYNE – Bourges, juin 2001) ; il conclut son article par : « La musique, art du temps, doit montrer la voie : le temps se travaille hors-temps »

    Ce temps réel dans les musiques mêlant l’acoustique et l’électrique au XXe siècle, est-il en fait si nouveau cette histoire proche si on lui retire ses habits informatiques, si on le « dés- informatise » ? On pourrait constater, ne serait-ce que dans notre histoire contemporaine locale, franco-française pour résumer, que cela a toujours été un questionnement et des pratiques certes annexes voire clandestines, mais réitérés. N’hésitons pas à citer des expériences vécues, surtout celles dont on n’a que peu de chances d’en trouver les traces sur Internet (ou quand elles y figurent, elles sont bien souvent trop imprécises, et les amalgames sont monnaies courantes). Notre histoire regorge de ces tentatives technologiques pour par exemple « gagner du temps » ou « savoir mieux le prendre » dans la réalisation en studio, ou encore être actif ou asservi dans le « présent » de la diffusion en concert ; chacun peut alimenter et mettre à jour ce grand livre patrimonial, en plus et même au-delà des livres et articles spécialisés affichés docilement par Internet.

    Car les marges sont souvent plus fertiles que la page centrale, l’abandon des routes secondaires au profit des autoroutes n’est pas sans conséquences malheureuses pour l’environnement humain. Et ces marges ne sont pas toujours parcourues avec pertinence, surtout si l’on veut se placer à hauteur d’une démarche expérimentale dont les musiques électroacoustiques sont issues. Par démarche expérimentale comprenons à la fois des aventures, des pensées, des outils, des techniques, des illusions et leurs contraires, des projets enthousiasmants et parfois leurs tristes rejets, qui tous débordent et de toute part le hardware informatique up to date et les systèmes y afférents… Edgar Varèse, notre grand ancien encore proche, n’aurait pas contredit cette proposition, il en a trop souffert.
    Parce que, globalement, pour ce qui est du real time ou du delayed time ou de leur traduction docile, tout le monde se comprend, tout semble aller de soi. Mais à force de prendre des raccourcis, d’abréger par commodité la langue française pour se fondre dans le bien séant planétaire dominant, on finit par amputer : ce qui est toujours injuste et cruel, en particulier pour une langue (jeu de mot « saignant » on en conviendra).

    Dans le désordre, chapitrons maintenant quelques remarques de mon point de vue « local » et singulier, qui demanderaient pour le moins approfondissement. Je continuerai d’employer les locutions et notions temps réel et temps différé, écrites de cette manière, comme si tout le monde était d’accord sur ce qu’elles signifient, mais, comme tout le monde, je ne cesserai de me demander ce qui se cache derrière ces portes entr’ouvertes en cette occasion, et que je n’aurais point vu.

    Pour amorcer les réflexions disons que :

    1) temps réel renvoie à de l’effectuation de musique (audio-numérique) « jouée » en direct et en interactivité avec l’environnement, comme la musique instrumentale ; c’est la « présentation » publique d’une « variation » possible, parmi d’autres, de ce que peut produire un dispositif conçu, mis au point, pré-règlé en amont par son auteur. Pour celui- ci, la « satisfaction maximale du devoir accompli » est censée être éprouvée en aval et sera renouvelée à chaque « présentation ».

    2) temps différé renverrait à une « re-présentation » d’une effectuation de musique définitivement inscrite sur support après avoir été l’objet de multiples « tentatives » en studio, sur un mode compositionnel : le compositeur est son propre environnement. Pour celui-ci, la « satisfaction maximale du devoir accompli » est censée être éprouvée, sans retour possible, dans cet amont décrit. En aval, la « re-présentation » ne participera que faiblement, en plus ou en moins, à la satisfaction évoquée.

    Reste donc à tourner autour de ces propositions, un peu extrémisées, pour les mettre à l’épreuve.

    I – Conjugaisons à réviser

    Par exemple, partons de définitions du système temps réel récoltées ici ou là : il y a « système temps réel quand il y a le « contrôle d’un procédé physique à une vitesse adaptée à l’évolution du procédé contrôlé » (j’ai perdu la source de cette citation). Ou bien encore (Ministère de la Culture) : « il s’agit d’un mode de traitement des données à un instant quelconque et l’obtention immédiate des résultats ». Obtention instantanée serait plus juste : im-médiat suppose « sans intermédiaire » ; or, si on s’en tenait à l’utilisation d’un simple laptop pour une performance musicale en direct (cas minimaliste), il y a bien du hardware plus ou moins sophistiqué entre la décision mentale du musicien et l’effectuation musicale qu’il génère, au doigt, ou parfois à l’œil. C’est vrai aussi avec un instrument acoustique, mais les performances ne sont pas encore comparables : la « vieille » vélocité instrumentale (plusieurs siècles de mise au point) a encore de beaux jours devant elle… En effet, un système temps réel doit donc être sensible, dans l’absolu, à l’environnement lui-même en évolution ; et une réponse inférieure à 0,5 seconde en interaction avec cet environnement lui-même en évolution n’est pas à la portée de n’importe quelle pratique en real hard time : il s’agit bien d’être en prise directe depuis le laptop avec « ce qui est en train d’être ». Jouer en temps réel c’est jouer « effectivement » la durée du son, chaque instant de cette durée, sans décrochage. Que le contexte soit celui d’une prestation scénique impromptue, improvisée, ou celui d’un paysage – urbain ou rural – à « habiter » musicalement, une adéquation maximale aux instants non prévisibles est concevable pour l’oreille du musicien qui en a fait un peu l’apprentissage ; mais c’est ce qui se passe après que son doigt a enfoncé la touche du clavier qui peut poser problème.

    Qu’est-ce qui est déclenché ? À quelle vitesse peut-il en avoir le contrôle ? Est-ce que « déclencher » du sonore c’est « jouer » sensiblement avec ce dernier ? Ne passons pas sous silence l’expression « jouer sur la corde sensible » des êtres, elle ne perdure pas pour rien dans nos usages lexicaux. Dans le domaine de la sensation, déclencher ce n’est donc pas jouer ; j’évoquerai plus loin les différents comportements digitaux et les outils correspondants auxquels nous faisons appel dans l’acte d’effectuation musicale.

    Pour entrer dans des comparaisons concrètes et expérimentées évoquons cette pratique musicale qui réponde à la lettre (pour l’esprit, ceci reste à discuter) au système temps réel défini plus haut: l’improvisation non-idiomatique (dite «libre»). Dans le cas de formations «mixtes» (instrumentistes acoustiques et joueurs de dispositifs de type « live-électronic » gérés par l’ordinateur, pour faire court) on peut apprécier la capacité de réponse interactive propre aux uns et aux autres. Dans cette pratique musicale collective (la plus « inventureuse » qui soit) l’effectuation doit être instantanée, et en meilleure adéquation possible à l’évolution parfois très rapide du « tout », un « tout » nommément « présent » dont le destin « futur » est éthiquement ignoré. Dans cette conjugaison au « présent » du temps, l’ordinateur souffre encore de trop de « possibles » ; ou alors son pilote est obligé de les réduire antérieurement à l’improvisation, il doit se « pré-parer » à toute éventualité. Il conjugue comme une sorte de « futur antérieur » d’états de musique dont l’adéquation instantanée n’est pas assurée: cela peut être dans les plus mauvais cas du « conditionnel…dépassé » : « j’aurais dû, plutôt que… ».

    Tous les praticiens de la musique improvisée non-idiomatique, quels que soient leurs outils, ont pu apprécier des vitesses de répliques « adéquates » qui ne sont pas comparables parce qu’il ne s’agit pas du même temps : le temps réel informatique n’est pas, à ce jour, du « temps présent » instrumental. Il n’y a pas à coup sûr « le contrôle d’un procédé physique à une vitesse adaptée à l’évolution du procédé contrôlé ». Le doigt du violoniste pressant la corde n’a pas besoin d’intermédiaire pour effectuer la décision dudit violoniste, tant au niveau de la substance que de la forme sonore voulue à l’instant « t » : la décision et son effectuation la plus adéquate possible sont quasi simultanées. J’évoque ici un violoniste qui ne joue pas qu’avec ses doigts de la main gauche, je pense à un violoniste qui joue « vraiment » avec son archet… et son oreille ; il faut toujours relativiser.

    Le doigt du musicien sur la touche de l’ordinateur ou sur un écran tactile, quelle que soit la vitesse électrique mise en branle, est déclencheur d’un intermédiaire programmé, « pré-paré », sans qu’au moment du « patch », la réalité sonore de l’instant d’intervention future puisse être prévisible (pré-audible). Dans le terme « pré-paré », j’effleure au passage l’expression « paré au plus pressé », elle est ici d’actualité. L’adéquation, dans le meilleur des cas, même si le musicien est un virtuose de son instrument (pseudo-instrument ?), sera relative ; le plus souvent, « un certain temps » se déroulera pour que sa partie s’adapte au tout en train de se dérouler, à moins que ce dernier opte pour le mode de conjugaison « impérative » et demande aux comparses de s’adapter. C’est ce délai qui crée de nombreuses difficultés de jeu collectif dès que l’acoustique instrumental et le « numérique appliqué » tentent l’aventure commune de la libre improvisation : les deux univers ne tournent pas à la même vitesse.

    Dans ce cas extrême de l’improvisation libre, sans pré-détermination structurelle, le « présent » et le « futur antérieur » ne feront bon ménage qu’au prix de beaucoup de concessions… que les improvisateurs instrumentistes n’acceptent pas toujours par ailleurs, mais ce n’est pas le sujet.

    II – Retour sur le passé simple

    La cohabitation entre temps réel et temps différé n’est pas neuve sous le soleil des musiques haut-parlantes: bien avant que l’informatique vienne bousculer le règne de l’analogique, « l’expression directe » dans le grand cadre des musiques électroacoustiques a été régulièrement visitée. J’en ferai un bref et partial, donc limité, historique.
    Premier exemple dont je peux donc témoigner : la création d’une sorte d’atelier qui m’est confié en 1969, en tant qu’assistant de recherche au GRM. Pierre SCHAEFFER inaugure alors la première classe de musique électroacoustique (Musique fondamentale et appliquée à l’audiovisuel) au CNSMDP. L’idée partait d’une double envie de plusieurs stagiaires de l’époque (envie plus que partagée de ma part) : – 1) conserver le plaisir du geste instrumental et l’attitude de l’interprète « en représentation » – 2) mais mettre ce plaisir au service d’une sorte de musique électroacoustique en direct. Pour réaliser ce projet, on sautait les différentes et longues étapes de la réalisation-studio qui suivent la prise de son (le montage, le traitement, le mixage), mais on conservait collectivement cette méthodologie dès l’acte premier d’excitation d’un corps sonore devant le microphone. Chacun devait se penser comme une espèce de «voix de mixage» prête pour le mixage final qui se ferait collectivement «en direct», pourquoi pas publiquement.

    Nous expérimentions de la «musique real time concrète»… «Concrète» très précisément puisque le point de départ en était la « prise de son concrète» telle qu’on la définissait à l’époque : utilisation de divers micros au plus près de la source, ainsi que des micros de contact utilisés comme un archet sur des corps sonores de tous types. Mais ces actes, on les prolongeait dans du « temps long improvisé », collectif, sans les ruptures et arrêts nécessaires aux prises de sons habituelles. Le projet était de faire un morceau de musique concrète en temps réel, à « consommation » audible immédiate, sur place. Nous restions hors cabine, dans le studio d’enregistrement (le 52 du centre Bourdan principalement) équipé de haut-parleurs, préparant sans le savoir des prestations publiques qui ne tardèrent pas à arriver. L’occasion m’était donnée peu après de créer ma première pièce de concert, qui sera, dans la foulée de l’expérience, une pièce qu’on disait «mixte», pour improvisateurs amplifiés et bande magnétique. Ce sera, en 1969, « Kiosque », longue cosmogonie créée dans le cadre de la « Nuit blanche » du GRM, puis des SMIP, avec, pour interprètes, quelques-uns des participants à l’atelier dont j’avais alors la responsabilité administrative (Boeswillwald, Lejeune, Echarte, Vandenbogaerde, Clozier entre autres). Très rapidement à la suite du concert est né le «Groupe d’Expression Direct de Chateauvallon», nom proposé par Pierre Boeswillwald (notre contact avec le centre culturel de Chateauvallon qui nous «parraina») et qui réunissait Clozier, Lejeune et moi-même. Le groupe sera sollicité plusieurs fois dans des manifestations publiques du GRM : le temps réel pris en charge par des interprètes sur scène allait dès lors co-habiter dans certains concerts en alternance avec le temps différé, pris en charge par le dispositif électroacoustique classique (lecteur de support/console/haut-parleurs).

    D’autres groupes collaboreront avec le GRM après le G.E.D.Chateauvallon. Pour mémoire, citons OPUS « N », incorporant des instruments traditionnels amplifiés (claviers électroniques pour ma part : Farfisa, Clavinet Honer) et, en plus de son violon et de Hydrophilus, le premier synthétiseur joué en direct et sur scène par Christian Clozier: le fameux VCS 3 de la société EMS de Zinoviev. Des invités privilégiés sont systématiquement présents, comme Pierre Boeswillwald (avec son Polycorps Électromécanique) ou encore Philippe Maté et autres musiciens venant du free- jazz. Plus tard la relève sera assurée au sein du GRM par le TRIO GRM assez vite renommé Trio TM +, réunissant Laurent Cuniot, Denis Dufour, Yann Geslin.

    Ainsi, progressivement, le son concret en direct est abandonné au profit du son électrique de synthèse, les instruments manufacturés s’imposent.

    On ne peut pas passer historiquement sous silence qu’une sorte de préoccupation quant au temps réel était déjà à l’honneur au temps du «pupitre de relief» conçu par Jacques Poullin, au carrefour des années 49/50 ; et c’est bien sûr un chef d’orchestre (l’éclairé Maurice Le Roux) qui devra, fonction oblige, manifester la prise en main du temps réel appliqué à l’espace du théâtre de l’Empire (« Orphée 51 ou toute la lyre »).

    De même dès le début des années 60, ce sera l’émergence de musiques qui manifesteront de la part de leurs auteurs le besoin d’expérimenter l’hybridité d’une sorte de temps réel mêlé à du temps différé. Les mauvaises langues de l’époque (traduisons : « les mauvaises oreilles ») diront qu’il s’agissait de joindre l’utile (l’électroacoustique) à l’agréable (les instrumentistes) ; c’était bien mal « entendre » la nécessité de confronter deux modes d’occupation du temps et de l’espace qui « s’étrangeaient » comme on disait au XIXe siècle. Evidemment, quoi de plus hétéroclite que du son haut-parlant venant rustiquement (du carton agité) s’immiscer dans du son instrumental de plusieurs siècles d’âge ! Une canette énergisante mêlée à 75 centilitres d’un grand crû bordelais !

    La tentative était osée car en 1954, pas si loin, ce fût Edgar Varèse et la création au théâtre des Champs Elysées de sa pièce « Désert » : se rappeler la ire scandalisée des auditeurs (de vilains « rats des Champs » à l’oreille trop conformée !) qui engendra l’échec public de cette belle « nécessité historique ». J’affirme cette nécessité d’autant mieux que, malgré mes propres expériences de « musique mixte » dont certaines « bien accueillies » comme on dit, je reste dubitatif. Je continue, dans la réflexion, à avancer avec grande prudence sur le terrain miné des bonnes intentions où marier la carpe et le lapin ne peut qu’être tenté certes (rendre cohérent l’hétéroclite est mon sport favori), mais pas à n’importe quel prix. Ma « sensoricité » mise en cause m’autorise à rester vigilant : l’instrument et le haut-parleur n’ont pas la même histoire, ce n’est pas parce qu’on les aime tous les deux qu’il faut les forcer à se marier.

    Mais, prenons un peu de recul, était donc bien historiquement nécessaire, et la communauté électroacoustique expérimentale en sort confortée, l’apparition d’œuvres pour instruments et bandes magnétiques. En 1961/1962, c’est l’ambitieux défi du « Concert Collectif » pour petit ensemble instrumental et bande magnétique. Iannis Xenakis participe à sa complexe conception avant de se retirer de l’expérience ; et ce sont François-Bernard Mache, Ivo Malec, Luc Ferrari, Bernard Parmegiani, François Bayle, Edgardo Canton, Philippe Carson, N’Guyen Van Tuong, Jean-Étienne Marie qui finaliseront l’expérience jouant bien le jeu des années 60, tellement fertiles en aventures audibles. Ils ouvraient la porte aux années 70 où les « musiques mixtes » seront le plus souvent des pièces, plus classiquement abordables, dans lesquelles un soliste concerte avec une bande magnétique nourrie à la même chair instrumentale pré-enregistrée. Sorte d’anamorphose entre la carpe et le lapin.

    Bien plus tard, le traitement du son instrumental en temps réel prendra la suite des musiques mixtes qui occupèrent donc longtemps «la scène». Il se présentera comme la grande réconciliation entre le vivant instrumental écrit et une technologie « enfin » avancée, de progrès, of course… Reste à s’interroger sur ce développement qui se pensait incontournable? En plus de nombreuses bonnes raisons techniques, il y a eu vraisemblablement la volonté de réhabiliter la notion de représentation scénique et, plus dissimulées, l’existence de pressions corporatistes, économiques, parfois un tantinet passéistes (les éditeurs de partitions musicales faisaient grises mines…). Il y a matière à discussion.

    Plus tard encore c’est la montée sur scène de l’ordinateur portable, du laptop, et des notions de real time voulant peut-être reléguer le delayed time au mémorial des anciens combattants (le mettre à genoux/sur les genoux au sens propre et figuré). C’est une joke facile qui n’apporterait rien de positif au débat, sauf si l’on jette un regard sur les pratiques libres improvisées actuelles : dans le cas de nombreux groupes, une «machinerie expérimentale» voire rustique, telle que celle que nous utilisions dans le G.E.D. Chateauvallon par exemple, fait sa réapparition au côté du laptop; le vintage peut frapper encore et avec bonheur.

    Point d’importance qui mérite aussi débat: cette pratique d’une musique électroacoustique en direct, en temps réel comme on dit pour l’heure (en « temps présenté » pour moi), n’était pas, et n’est toujours pas, à considérer comme une évolution, un «progrès» vis-à-vis de la pratique différée en studio. C’était dans les années 60/70 une pratique «autre», parallèle, complémentaire, répondant à d’autres envies d’expressions par le faire musical: le temps différé n’a jamais été rongé par le temps réel comme la rouille, avec le temps, ronge le fer, loin de là. Temps réel-temps différé: c’est une façon de faire vivre notre « oreille » à deux vitesses distinctes, pour le bien de deux maîtrises elles aussi distinctes du Temps (et de l’Espace, n’oublions pas une fois encore de l’évoquer à un moment ou à un autre). Par ce terme «oreille» il faut bien sûr comprendre une façon fondamentale d’entendre le monde: le ressentir, le penser, s’y confronter. Et ça, c’est de l’impératif, pas du conditionnel présent ou passé.

    III – Les « glissements progressifs du plaisir »… vers la scène

    Petit emprunt à Robbe-Grillet pour s’interroger sur ce passage progressif de l’ombre de la salle publique à la lumière du plateau pour le compositeur d’œuvres électroacoustiques. Ou, autrement, interrogations plus Schaeffériennes : les relations troubles, parfois extraconjugales, que la cause et l’effet entretiennent dès que le haut-parleur se mêle de diffuser du son. « Cachez cette cause que je ne saurais entendre… », paraphrasait-on dans les années 60, «… cela fera un bien meilleur effet ». Remémorons-nous cette défense théorique (un peu anamorphosée ici), proposée par Pierre Schaeffer pour contrer les attaques faites aux musiques trop « anecdotiques » des années 50 ; trop anecdotiques aux oreilles de ceux qui, en fait, n’avaient qu’une écoute du monde que l’on pourrait déclarer « tristement » anecdotique, imperméables qu’ils étaient aux sons qui se situaient « hors de portée à cinq lignes » comme j’aime le dire.

    Masquer la cause pour favoriser l’effet, ou renforcer la cause qui affaiblira l’effet ? On peut appliquer ce questionnement à l’importance donnée, respectivement, aux différentes parties significatives d’un tout comme le concert; « en effet », dans l’espace impliqué (salle publique et scène) l’attention du public peut au gré de son humeur passer du virtuel au tangible, au saisissable. Par exemple il peut constater que la mise en scène des haut-parleurs est du plus bel effet ou bien s’interroger sur ce qui cause ce déploiement d’ondes sonores envahissantes. Il peut chercher à décrypter ce que cache le moindre mouvement du compositeur à sa console, chercher un rapport effectif entre ces mouvements parfois infimes et ce qui lui cause ces affects inconnus de sa sensibilité auditive jusqu’alors ; il peut aussi fermer les yeux et se faire son propre cinéma, « virtuel » comme de bien entendu …

    Plus globalement, ce public va-t-il vivre du « temps présenté » (le real time en questionnement), un « hic et nunc » intangible, quoi qu’il se passe à coté, au-dessus, devant ou derrière lui ? Ou bien va-t-il vivre plutôt du « temps re-présenté » si le contenu « différé » (l’effectuation sonore d’un autre temps et d’un autre espace) l’emporte sur le décor et moment présent, le transporte ailleurs comme on dit ?

    Force est de constater, depuis les années 60 (pour ne pas remonter jusqu’à la préhistoire), que le positionnement du compositeur vis-à-vis des auditeurs/spectateurs a fait du chemin, au moins d’un point de vue topique. Il y aurait comme le projet qu’il retienne mieux et plus l’attention du public en faisant progressivement glisser le plaisir de l’effet (la pure expérience auditive vécue « à cause » du contenu diffusé par les haut-parleurs), vers la cause tangible: l’individu-compositeur en action sous ses yeux, le géniteur, en train de conduire la diffusion depuis la console.

    Amusant renversement historique depuis le précepte des années 50, depuis la crainte de l’anecdotique! Il y aurait comme l’acceptation par le public d’être distrait de l’écoute qui était voulue « réduite », pour mieux ouvrir les yeux sur les causes « fabricationnelles » ; privilégier « le faire » (« l’en train d’être fait… ») au détriment éventuel de « l’entendre » ? Dans cette direction prise, le chemin du devant de la scène, laptop sur les genoux, est entr’ouvert pour le compositeur. Reprenons le cheminement depuis les années 70 par exemple.

    Premier cas de figure : le compositeur diffuse sa pièce depuis la console centralisée au milieu du public ; une petite lumière, juste fonctionnelle, éclaire les potentiomètres. Il reste en quelque sorte « dans l’ombre » de son mixage final, antérieur, en studio, n’agissant sur les potentiomètres que pour « surligner », pour adapter au nouvel espace les effets de proche ou de lointain, de serré ou de large, de soli ou de tutti, de déplacements cinétiques, et cætera, qui sont déjà inscrits sur le support stéréophonique. Ces effets, mémorisés, lui « suggérant » le juste geste accompagnateur, et pas plus, à effectuer au moment de la diffusion (mon option personnelle le plus souvent, je déteste qu’on touche à mes « déplacements cinétiques » décidés et fixés en studio). Car le compositeur a bien été interprète (« compositeur interprète ») en temps réel de sa pièce, mais au moment du mixage final en studio, pas dans ce temps différé de l’effectuation sonore publique. Dans ce deuxième temps, il joue le rôle d’une sorte d’accompagnateur, de « compositeur accompagnateur » le plus zélé possible de sa propre composition.

    Dans ce premier cas, le compositeur ne cherche pas « in situ » à se montrer comme la « cause » de ce que les haut-parleurs diffusent, ce sont les haut-parleurs eux-mêmes qui sont « causants » ; leurs « effets » sont prioritaires et s’emparent de l’espace. Dans ce dessein, les haut-parleurs seront peu à peu « mis en lumière », mis en scène, ils en occupent le devant : ils vont passer progressivement de la trans-parence à la pré-parence. Mais on reste bien spécifiquement confronté à de la « musique haut-parlante ».

    Deuxième cas de figure : le glissement s’amorce assez vite avec la mise en lumière de la console en entier, et bien sûr celle de son conducteur, qui passe du rôle de « compositeur accompagnateur » à celui de « compositeur chef d’orchestre ». Car « l’orchestre de haut-parleurs » sera le terme revendiqué, mis en avant (c’est dur d’abandonner le XIXe siècle, on se « console » comme on peut !) ; il n’est pas bien approprié, mais c’est un autre débat. Peut-être y a-t-il dans ce deuxième cas de figure la tentative d’équilibrer, pour le ressenti du public, la cause et l’effet ? Il y aurait comme la volonté d’équilibrer la relation entre celui qui, en temps réel, autorise sa propre composition à occuper l’espace présent en ouvrant les potentiomètres comme il l’entend, et, d’autre part, la musique elle-même, ses effets, effets qui en temps différé, pourront aussi vivre leur vie ailleurs, dans un autre temps, sous la conduite d’un autre compositeur/interprète.

    Dans cette posture, le compositeur au pupitre de commande peut parfois se laisser aller à passer des effets du son aux effets de manche, comme l’avocat qui défend une cause (« sa » cause dans le cas du compositeur). Pierre Henry a été un grand défenseur de cet exercice avec le succès que l’on sait. C’est de bonne guerre, mais s’enclenchera alors un troisième glissement du plaisir, celui qui est pour le compositeur d’aller vers la scène, pour aller rejoindre d’une certaine façon, et dans des cas extrêmes, le DJ des musiques électroniques de danse.

    Troisième cas de figure : venue d’outre atlantique, la « performance », laptop en bandoulière, va prendre ses marques. Pas d’ambiguïté, « c’est celui qui l’dit qui y est » on disait à l’école : celui qui est sur scène c’est bien celui qui apparemment joue d’un instrument (pseudo instrument ?) et qui fabrique sa musique « sous nos yeux ». Ce sont peut-être les grandes retrouvailles entre tous les « métiers » (métiers ou compétences ?) de la réalisation électroacoustique : au même instant, au même endroit et pour le même prix, on aurait le luthier, le preneur de son, l’interprète, le compositeur, le chef d’orchestre, l’éditeur, et cætera… Serait-ce le « tout en un », comme avant l’ère des segmentations par spécialisations calquées sur le modèle du développement industriel en occident ?

    Pour qui travaille avec les exigences propres au temps différé (temps re-présentable), en studio, cela semble trop beau pour être totalement vrai, des raccourcis sont inévitablement empruntés : le temps de travail (sa nature, sa qualité, sa façon d’être pensé), temps nécessaire à chaque phase de la réalisation, n’est pas compressible à ce point. Les exigences ne peuvent pas être les mêmes entre un mode de l’occupation du temps et de l’espace qu’on souhaite « re-présentable » et celui qu’on souhaite « présentable », il s’agit bien de deux sports différents dont il faut débattre.

    Mais remarquons néanmoins que la « performance en temps réel», vue de loin, est une sorte de retrouvaille avec la conception du musicien des siècles passés ou des contrées extra- européennes : pas de discriminations entre l’instrumentiste et le compositeur. C’est donc aussi, toujours vu de loin, un rapprochement que l’on peut faire avec l’improvisateur de musique libre que j’ai évoqué plus haut ; sauf que ce dernier ne revendique pas, loin de là, un statut comparable dans la société musicale dominante qui nous organise (d’ailleurs, la SACEM lui refusait ce statut il n’y a pas si longtemps).

    Ce qui est gagné, c’est la simplification du ressenti pour le spectateur : tout est là, tout est dans tout, et réciproquement a-t’on envie de dire. Et « sous nos yeux » disais-je, car on ne peut plus en réchapper : la cause et son effet sont indissociables, en pleine lumière, unis pour le meilleur et pour le pire. Le geste est intimement lié à la parole : « enfin ! », diront certains ; encore faut-il que le geste soit juste, que la parole soit claire. Ce n’est pas si gagné que ça. Sans nul doute, c’est le progrès des interfaces dans le sens de la « digitalisation sensible » qui donne progressivement la bonne réponse. Le développement des launchpadcontroler et capteurs divers ainsi que les logiciels adéquats, remet « le toucher » en jeu et fait passer progressivement le déclenchement par le bout d’un doigt d’une touche de clavier comme une action rustique, désuète. On peut s’y attarder brièvement car ce n’est jamais bon de faire les choses seulement « du bout des doigts ».

    IV – La reprise en main du style

    Petit retour nostalgique sur l’apprentissage de l’écriture : je parle ici de celui que j’ai eu la grande chance de faire à la plume de sergent-major, en primaire, lors de ces délicieuses dictées où l’on prend le temps et l’espace de la page blanche pour inscrire et donc exprimer ce que l’on perçoit du monologue de l’instituteur, de sa litanie orale (« aurale » je préfère dire). Cela a été déterminant pour ce qui sera plus tard l’apprentissage fondamental de la musique ; pas tant sa technique que le modelage cognitif de la pensée et sa représentation temporelle et spatiale. Que l’on soit musicien ou danseur potentiel (les deux à la fois seront toujours le bienvenu…), l’expérience du délié et du plein à la plume c’est l’expérience première de l’arsis et de la thésis, de l’élan et du posé, de l’inspiration et de l’expiration, bref l’expérience de tout ce qui mène des artistes (entre autres) à maîtriser le mouvement dans l’espace et dans le temps : une très longue et passionnante histoire reste à écrire (amorcée brièvement dans le sous-chapitre « les mots à moudre », p. 113 de mon « Introduction à un solfège de l’audible – L’improvisation libre comme outil pratique », Ed. SYMÉTRIE – Lyon).

    Car écrire à la plume sergent-major ce n’était pas rester à la surface de la page (…à la surface des choses), sur un seul plan à deux dimensions ; le fait de pouvoir affiner (vers le haut, dans « le délié ») ou grossir (vers le bas, dans « le plein ») le trait, c’est d’une certaine façon toucher « des doigts de la main » la profondeur, donner une illusion de relief, chercher à mieux caractériser sa propre écriture par jeux de pressions ou d’allègements. On faisait alors l’expérience sensible, capitale, de son propre « style ». Le style : ce qui est donc le propre de chacun, ce qui peut être la différenciation d’avec l’autre et donc, à terme, sa meilleure compréhension ; une nécessité sociale mal maîtrisée à cette heure.

    En toute conséquence logique, le « progrès » (avec les réserves que l’on va comprendre) ce sera « le stylo à plume », le bien nommé ; puis et malheureusement l’arrivée du stylo-bille qui remet « à plat » la trace stylisée de l’individu, banalise le relief. Enfin le clavier de l’ordinateur (après celui de la « machine à écrire ») achève le travail : l’homme, simple déclencheur, perd le contact avec sa propre « réalité » sur le plan sensible ; sa « sensoricité » première, il la confie à la machine, à un intermédiaire. « Son » temps et « son » espace dont il avait, porte-plume en main, la charge de les inscrire pleinement en temps réel, en « temps présenté », lui échappent en partie. Son style potentiel est édulcoré, banalisé, car le temps réel « machiné », pris en charge au moment de l’effectuation, aboutit à une espèce de style qui ne lui est pas propre ; il est différé, médiatisé, reporté sur le dos d’un outil accessible à tous. Il y a perte de qualité en « caractère ». Mais pas en quantité, car la fenêtre « Police » disponible sur la barre d’outils est censée par sa diversité de propositions nous représenter ; elle nous dit, d’une certaine façon, comme toutes les polices : « on s’occupe de tout, circulez, il n’y a rien à voir… ».

    Un simple mot propulsé par ma frappe sur le clavier peut donc être écrit par tout le monde, on ne verra pas de différence ; il en faudra plusieurs pour que l’identité « stylistique » de son auteur affleure, à niveau syntaxique, et que l’on passe d’une simple accumulation ou juxtaposition de significations à du « sens » propre à celui-ci. En fait, l’instantanéité recherchée dans le temps réel prend en amont beaucoup de temps de préparation pour que du « style » se manifeste.

    En temps différé, celui correspondant par exemple à une lettre manuscrite reçue un mois plus tard, ou relue deux cents ans après, c’est la mémoire exacte du « style » de son auteur, c’est l’empreinte de son « é-motion » (ce qui a fait « bouger » sa main) qui a été imprimée dans le temps réel d’alors, un temps réel « passé ». Paradoxes à souligner.

    Par analogie plaisante on ne peut nier la différence entre le plaisir lent que procure l’écriture à la plume d’un beau « l » à l’ancienne et celui plus furtif, pour le moins, de la frappe d’un « l » stéréotypé, sur le clavier de l’ordinateur. Dans le premier cas, porte-plume en main, on prend le temps d’alléger en montant vers le sommet du « l », on s’y attarde, un peu hésitant, pour enfin plonger vers la descente, retourner à la terre promise en grossissant progressivement le trait, avec la jouissance de l’acte pleinement accompli. Comparé à cette façon de vivre le temps et l’espace parcouru, le coup de doigt sur la touche passe pour de l’éjaculation précoce, ce qui n’est pas forcément du goût de tout le monde.

    D’ailleurs « la reprise en main du style » telle que je l’évoquais plus haut a dû sembler nécessaire au joueur de laptop, à celui qui ne veut pas différer son temps (et son espace) d’activité créatrice pour le provoquer, le convoquer en temps réel et en public. J’y viendrai plus loin.

    Mais pour le partisan du temps différé (partisan pas forcément exclusif, l’intégrisme n’est jamais bon à favoriser), son « style », il ne l’a pas quitté des mains. Il l’a interpellé et provoqué scrupuleusement en prenant le temps de remettre cent fois l’ouvrage sur le métier, que ce soit pour un malheureux début de son pas aussi abrupte que souhaité, pour la durée d’un silence qui doit être senti comme respiration et non pas rémanence terminale ou pour le mixage d’une séquence entière enfin équilibrée, et cætera… Alors, à un certain moment, imprévisible et crucial, il fait le constat que définitivement, cette énième tentative tant attendue (ne pas confondre avec une énième « version »), bref et enfin cette tentative était la bonne, la seule possible, irrémédiablement, sans retour possible ; il n’y a plus d’au-delà ou d’après envisageable. Le compositeur s’est trouvé à/en ce moment-là en pleine adéquation avec son « style ».

    Pour l’alpiniste, ce grand sommet dont il a toujours rêvé, il l’atteint une seule et grande fois que l’on va nommer sa « première », quelque soit le nombre de tentatives qui l’ont précédée. Il ne parlera jamais de « versions d’ascensions antérieures ».

    Le peintre, le sculpteur, le réalisateur de film, l’écrivain sont pareillement confrontés à ces moments bascules, ces « premières ». Une sorte de responsabilité, impérieuse, est prise soudainement sans réserves. L’artisan, le bien nommé, prend la responsabilité de « fixer dans le marbre » ce dernier geste tenté et réussi, ces derniers mots ou images enfin bien ajustés ; il décide d’en faire une « inscripture définitive», je dirais.

    Pour le compositeur dans son studio, une remise en cause d’un acte de type alchimique serait la négation de ce mode de penser l’occupation du temps et de l’espace, et des techniques de réalisation y afférentes pour lesquelles il a opté. Il a appris sur du long terme à se pousser dans ses retranchements inventifs, en grande et fertile solitude, hors temps conventionnel, avec cette auto- exigence indescriptible et parfois irrationnelle.

    Ce temps réel à vivre en studio n’est pas partageable, ne peut être « public ». Pour faire court, on n’imagine pas Georges Braque faire entrer ses amis ou du public dans son atelier pour parachever sa toile.

    Retour au joueur de laptop : le souhait de « remettre la main sur son style » pourrait être détecté dans l’utilisation croissante des pad et autres tablettes où les doigts de cette main en question tentent d’imprimer plus directement des variations de paramètres diverses, en toucher sensible (pas en déclenchement), et par là retrouver le geste de l’instrumentiste traditionnel, toutes oreilles (les véritables « contrôleurs ») dehors. Dans ce mode de réalisation de la musique, il y a bien un amont prédéterminé nécessaire (des «patch») qui va autoriser en aval des versions/variations possibles (et non plus des tentatives) en situation de « représentation » publique ; une sorte d’équilibre est recherché entre l’amont et l’aval. Dans le temps réel nous serions, très schématiquement, à mi-chemin entre l’improvisation libre instrumentale où l’amont et l’aval sont confondus au moment de la « présentation » (tout advient dans le présent), et la diffusion « différée » d’une musique inscrite sur support où le compositeur se propose de « re-présenter » l’amont de l’œuvre longuement et totalement engendré en studio.

    Le « totalement » est bien sûr à relativiser en temps différé au moment d’une diffusion publique, car les capacités interprétatives de la console sont à prendre en compte : on ne « re-présente » pas de la même façon une œuvre à partir d’une «consolette Uher» stéréo ou d’une console type Gmebaphone…De même, la diffusion d’une pièce stéréophonique permet un acte interprétatif autrement plus souple que celle d’une pièce inscrite sur 16 canaux où des relations spatiales de voix à voix auront été fixées pour une grande part en studio et donc moins « manipulables » en aval public. Plus loin encore, les réalisations holophoniques (tétra, penta, hexa ou octophoniques) que j’ai expérimentées imposent une grande neutralité à la diffusion (excepté, et faiblement, le niveau général) au risque de perturber les phases et détruire « l’effet holophonique » recherché (certes fragile) tel qu’il avait été capté à la prise de son (tétra, penta, hexa ou octophonique). Dans ce dernier cas la « trans-parence » des haut-parleurs est impérative ; et est donc impératif l’absence de rapport qui pourrait être établi par le spectateur/auditeur entre le haut-parleur et le geste « instrumental » à la console qui affirmerait alors la « pré-parence » du dit haut-parleur, sa présence « causante ». En 1973 nous avions longuement discuté avec John Chowning de sa pièce « Turenas » (quatre pistes) et de ma première expérience holophonique (tétraphonique) « L’arbre et cætera » ; de façons techniques différentes nous cherchions à atteindre ce que je nomme ici « trans-parence » et ce qu’il définissait avec cette jolie formule : « …libérer les sons des haut-parleurs ».

    V – Pour ne pas en finir…mais plus tard

    remière remarque : on pourrait prolonger la réflexion amorcée autour des natures de « temps » en interrogeant ou impliquant les natures « d’espace ». Par exemple opposer le fait de « jouer en direct » l’occupation spatiale d’un lieu (espace réel ?) ou bien tenter une « occupation spatiale de substitution » de ce même lieu en transférant un « tout », organisé et fixé, provenant d’un autre lieu et d’un autre temps (espace différé ?), c’est à dire proposer un simulacre.

    « Espace réel et espace différé », en voilà un beau sujet supplémentaire et/ou complémentaire à aborder.

    Deuxième remarque : évoquer le destin obsolète de certains outils de traitement du son en temps réel, particulièrement ceux dont on a poussé très loin leur cohérence et leur homogénéité « instrumentale ». Le temps passant, les techniques évoluant, des pièces spécifiquement conçues pour ceux-ci, dans « l’esprit » de ceux-ci, sont condamnées à disparaître, sans réelles chances de pouvoir être « réhabilitées ». En toute connaissance de cause, j’évoque avec mes « regrets éternels » ma pièce « La complainte du bossué » pour SYTER et un contrebassiste parleur.
    Bref, il est urgent de ne pas conclure.

    Alain Savouret octobre 2013


    Jean-Marc DUCHENNE
    Quand je danse, je danse…

    « Quand je danse, je danse ; quand je dors, je dors » écrivait Montaigne dans ses Essais.
    Le temps de la réaction instantanée, de la surprise exploitée, de l’erreur incorrigible et de l’écoute excitée par le risque ; et le temps de la réflexion, de la comparaison, de la correction patiente et de l’écoute affinée par la répétition.

    La place et la finalité de chacun est différente, presque opposée, dans le cas de la réalisation d’un objet et du jeu devant un public.

    Ce qui est important, c’est de s’autoriser d’aller aussi loin que possible dans ce que chacun d’eux apporte d’irréductible et d’irremplaçable : quand je joue, je joue ; quand je fixe, je fixe…

    Temps réel, temps différé… des termes techniques, issus du traitement informatique.
    Mais que peuvent-ils représenter ici ? Une action et son effet ? Une décision et la perception de son résultat ?

    Retrouve-t-on, formulée sous une apparence plus moderne, l’opposition entre une musique abstraite où le temps de la composition est très « différé » et celui de l’exécution très « réel », et une concrète où le geste compositionnel se traduit instantanément en un résultat sonore mais où l’écoute finale peut se faire sans aucune intervention ?

    Que ce soit dans la solitude du studio-atelier ou au milieu (en face) d’un auditoire, la place relative de ces deux composantes peut effectivement être extrêmement variable, elles peuvent se conjuguer d’une infinité de manières… ou être présentes quasiment à l’état pur.

    Je me suis amusé à tenter une sorte de mise en ordre de ces rapports dans une perspective de création sonore, à la fois en amont et en aval de l’objet de fixation / transmission, pour l’artiste sonore et pour l’auditeur.

    C’est évidemment assez approximatif, certainement incomplet, souvent discutable, mais peut-être instructif… :

    EN AMONT

    (L’artiste sonore dans son atelier ou le compositeur à son bureau ;
    du côté du compositeur : ce qui est pensé / ce qui est réalisé)

    Temps décalé

    Schéma d’intention, description, partition : aucun son n’est produit, il reste à fabriquer / programmer / jouer / faire jouer les instruments / les machines / les programmes…

    Programmation informatique : un processus est d’abord formalisé, puis ensuite exécuté afin de générer / traiter des sons (ou des partitions)

    Programmation graphique modulaire, réglages de paramètres d’instruments et de traitements : réalisation d’outils de traitement / synthèse, en interaction avec l’audition de

    leur effet
    Opérations de « montage », automations et séquences MIDI en pas à pas : modification d’éléments sonores déjà fixés, génération d’information de contrôle dont l’effet est immédiatement audible

    tournage sonore selon des intentions préalables en vue d’obtenir un résultat précis : préparation technique des microphones / corps et situations sonores / dispositifs électroniques, entraînement des gestes, puis enregistrement des sons ou des gestes

    Dispositif à surprises : génération / traitement faisant interagir de manière complexe geste et processus, dispositifs microphoniques complexes

    Dispositif aléatoire : génération / traitement stochastique non contrôlé directement

    Imprévu capturé : accident, improvisation totale, « trouvaille »

    Temps instantané

    Note : dans ce travail « en amont », toutes les situations décrites sont bien-sûr chaînables et cumulables, dans n’importe quel ordre et de multiples fois, puisqu’il se situe par définition dans un temps global décalé.

    EN AVAL

    (Le musicien devant son public ou le projectionniste derrière sa machine ; du côté du public : ce qui est composé / ce qui est entendu)

    Temps décalé

    Œuvre sonore fixée incluant les conditions de sa perception (installation pérenne, dispositif de projection autonome, casque sur borne…) : ce qui est donné à entendre ne varie jamais

    Œuvre / objet fini pouvant être placé dans un lieu variable (projection acousmatique directe, installation sonore fixée, cinéma, objet haut-parlant, musique mécanique…) : la réalisation est entièrement fixée, mais les conditions précises de sa perception varient à l’intérieur d’une marge définie, qui est sensée conserver l’intégralité de ce qui a été composé

    Dispositif individuel ou public interactif (CD-Rom, site Web, jeu vidéo, installation interactive…) : l’œuvre comporte des éléments qui peuvent varier, mais les conditions de cette variabilité sont intégrées dans la composition\

    Support / transmission domestique (disque, DVD, radio…) : l’oeuvre est fixée, mais le dispositif et les conditions d’écoute disposent d’un degré de variation indéterminé

    Adaptations d’un support en projection publique (volume global, ajustements de résolution spatiale, adaptation à l’acoustique et aux dimensions…) : ce qui est donné à entendre peut être légèrement différent d’une fois à l’autre, sans que le sens de ce qui a été réalisé ne soit modifié

    « Spatialisation acousmatique » (stéréo domestique > acousmonium…) : l’espace de l’œuvre est adapté dynamiquement par un tiers à des conditions différentes de celles qui ont été définies par la fixation, ce qui est entendu est forcément différent de ce qui a été fixé

    « interprétation acousmatique » : une partie du sens de l’œuvre est modifiée dynamiquement par ajout / transformation d’espace, amplification ou détournement des critères fixés, ceci sous la responsabilité de l’interprète

    « musique mixte » : juxtaposition d’éléments temporellement fixés et de jeu direct

    « live electronics » : déclenchement / modification / agencement d’éléments prédéfinis, jeu avec des dispositifs interactifs pré-programmés

    partition / tablature plus ou moins détaillée, précise et contraignante : le son de l’œuvre (acoustique ou électronique) est intégralement créé lors de la présentation publique, son déroulement varie selon les limites imposées par la transmission et les choix / possibilités des musiciens, chaque exécution est différente

    Partitions « ouvertes » : certains aspects temporels et / ou sonores varient dans une plage plus ou moins importante

    Règles de jeu, grilles d’improvisation : il existe un dénominateur commun à chaque exécution, mais il est plus ou moins perceptible

    Improvisation « totale », ou s’en approchant : chaque exécution est, dans la globalité comme dans le détail, (presque) totalement différente

    Temps instantané

    Note :
    La proportion de temps instantané et de temps décalé est bien-sûr partiellement déterminée par le « temps de vie sonore » de l’œuvre (je ne parle pas de la durée de son exploitation !). Limité et unique dans le cas du concert (5 à 13), limité mais multiple dans celui des séances (1, 2 et 5), il peut être infini dans certaines installations ou objets-haut-parlants (1 à 3), et indéterminé pour les supports domestiques (3 et 4).

    Les n°5, 6 et 7 peuvent sembler assez proches, mais ils représentent néanmoins des choix de répartition amont/aval bien différents et déterminants à la fois pour la composition et pour le mode de présentation adapté.

    Je laisse à chacun le loisir de réfléchir où se situent ses préférences et pourquoi…
    Quant à moi, quitte à paraître un tantinet manichéen, et alors que je suis d’un naturel tout ce qu’il y a de plus doux et tranquille, les extrêmes me plaisent ici beaucoup (justement ?), notamment les trois derniers points en amont, et les trois premiers en aval (avec une tendre pensée pour le n°13), sachant que l’essentiel de mon temps de travail (en amont) se situe tout de même dans l’entre-deux du n°4.

    Parmi toutes ces situations, il y en a donc deux sur lesquelles je peux m’arrêter, car elles m’apparaissent comme significatives de la manière dont j’aborde la création sonore haut-parlante. En tant qu’ex-instrumentiste et ex-compositeur-sur-papier (il y a très longtemps !), j’y trouve amplifiés : le plaisir de jouer, de confronter mon corps à la production des sons, et l’ineffable satisfaction de produire un objet qui, avec toutes ses limites et ses faiblesses possibles, représente quelque-chose dont je suis entièrement responsable lorsqu’il est présenté à un auditeur. En cela, selon les critères habituels, je me sens beaucoup plus cinéaste (indépendant bien-sûr) ou plasticien que compositeur…

    C’est que la réalisation d’une œuvre sonore en amont de sa diffusion au public bénéficie à la fois des possibilités offertes par l’improvisation la plus sauvage, où l’on peut se permettre de faire littéralement n’importe quoi, et, par la capture et la fixation, où l’on a l’assurance qu’il sera toujours possible de n’en conserver que le meilleur. Le risque du temps instantané peut être total parce que ce que je vais montrer sera très décalé.

    Le jeu d’abord, lors des séquences de tournage microphonique et des séquences d’improvisation avec les outils logiciels (échantillonnage, synthèse, traitements…).
    Cette étape est presque toujours temporellement dissociée de celle de l’assemblage (le n°4 cité plus haut), et n’est pas forcément réalisée en fonction d’un projet particulier. D’ailleurs, lorsque c’est le cas, la majorité de ce que j’obtiens se retrouve généralement inappropriée pour ce projet…

    C’est qu’il s’agit pour moi lors de ces séances d’utiliser une énergie totalement différente de celle qui est nécessaire lors de la composition (n°4), d’un investissement corporel et d’une attention d’écoute presque diamétralement opposés.
    J’y favorise les situations « à risque », je ne répète pas, je préfère sélectionner un son source sans le pré-auditionner, ne pas voir sa représentation graphique, ne pas bien connaître l’affectation de certains contrôleurs.

    Le plus souvent, cette situation de découverte et de surprise favorise la réaction, amène mon écoute et mon geste à donner naissance à des particularités sonores que je ne pourrais certainement jamais refaire, et, surtout, auxquelles je n’aurais jamais pensé.
    Et si le résultat n’offre pas d’intérêt, je peux éventuellement retenter le coup, mais surtout je jette, ou, plus intéressant, j’essaie de tirer parti des « erreurs » commises.

    Je passe ainsi beaucoup de temps, plus tard, à « rattraper » des trucs mal fichus, mais bon : « quand je joue, je joue ! »
    A l’opposé, lorsque la réalisation a atteint le point où il n’est plus possible de l’améliorer, lorsque l’œuvre est donc finie, je la laisse reposer jusqu’au moment où elle sera entendue, selon l’ensemble des éléments qui ont été fixés.

    Pour obtenir ce temps décalé, pour réunir les conditions pour que la non-intervention finale soit efficace, il a fallu au préalable transférer des aspects qui sont souvent dévolus au temps instantané de la diffusion (n°6 et 7 en aval notamment) vers le temps décalé de la composition.
    Mais c’est pour moi assumer pleinement ce rêve de l’objet-composé, aller, autant que possible, jusqu’au bout de ce que propose et permet la création sonore pour des haut-parleurs : « quand je fixe, je fixe… », là.

    Jean-Marc Duchenne, novembre 2013


    Pierre BOESWILLWALD
    L’avènement de l’électro-acoustique ou le haut-parleur, l’auditeur et le temps.

    Cet article est, pour l’essentiel, un assemblage d’idées, de constats et de souvenirs qui sont tirés d’un ouvrage sur La notion de temps dans les arts contemporains, que je prépare par ailleurs. Je ne suis pas, un universitaire, un scientifique ou un essayiste. Aussi, j’espère que mon lecteur voudra bien pardonner le côté quelque peu «salmigondis» de ce travail un peu fait à la hâte !

    Voilà plus de soixante ans que je me consacre à l’exploration des domaines de l’électro- acoustique. Durant tout ce temps, je me suis surtout attaché à tenter d’apprivoiser les extraordinaires possibilités expressives que ces techniques pouvaient m’apporter sur le plan artistique. Pendant toutes ces années, l’évolution du matériel et des techniques a été ininterrompue et considérable. Comme tous les pionniers de ces nouveaux territoires, je me suis constamment adapté à cette évolution technologique (en particulier : l’informatique et les techniques numériques).

    Créer des œuvres d’avant-garde avec les moyens les plus récents, c’est le lot et le métier du créateur/compositeur électro-acousticien !…

    On est, semble-t-il, peu conscient de l’impact qu’ont eu les diverses applications de l’électro-acoustique(1) sur notre société contemporaine ; il est pourtant considérable et je vous invite à y penser…

    L’électro-acoustique et le son

    Pour éclairer, le mieux possible, mon article, je vous propose deux définitions, aussi simples que possible, de l’électro-acoustique :

    1/C’est le traitement ou la production des sons par le moyen de l’électricité.

    2/Ce sont les applications de l’électricité destinées au sens de l’ouïe.
    Et, puisqu’il sera constamment question du son, de sa nature et de son

    essence, voici quelques repères déterminants :
    Le temps préside à la perception du son.
    Un son n’est pas un objet et quoiqu’en dise Pierre Schaeffer, son « objet

    sonore » ne peut pas être rangé dans une boîte !
    Le son n’existe pas en soi, c’est une sensation ; c’est un événement

    temporel ; c’est, dans tous les cas, l’histoire d’un corps physique dont l’immobilité a été dérangée plus ou moins longuement, par un apport d’énergie. Autrement, le corps physique reste inanimé et silencieux.

    La naissance de l’electro-acoustique : le solénoïde

    En fait, ce sont les applications de l’électromagnétisme qui sont à la base de toute l’électro- acoustique. Vers 1830, Ampère et Arago inventent la sonnette électrique. Cette toute première application « grand public » de l’électromagnétisme (l’électro-aimant) était sonore(2) ! On imagine mal la perplexité qu’éprouvaient nos aïeuls devant la sonnette. Faire retentir une sonnette éloignée en appuyant sur un petit bouton bouleversait leurs habitudes et troublait leurs certitudes sur le temps, la matière et l’espace.

    La consécration de l’instantanéité

    Peu après la sonnette apparurent deux inventions : le télégraphe et le téléphone (qui sont aussi des applications de l’électromagnétisme dédiées au sonore.). Lorsqu’on appuie sur le bouton de la sonnette, celle-ci retentit aussitôt, quelle que soit la distance qui sépare les deux appareils. Le téléphone a banalisé cette situation. Pourtant, quoi de plus étonnant que de savoir, qu’à l’instant même où j’ai fini le numéro de mon correspondant, qui habite souvent à des centaines de kilomètres de chez moi, il entend la sonnerie et me parle !

    Le phonographe et la photographie

    C’est encore durant la seconde moitié du XIX siècle que deux inventions surgirent dans notre société et la transformèrent profondément : Le Phonographe et la Photographie. Ces inventions permettaient de fixer sur un support des sons et des images qui avait réellement, mais fugitivement existé.

    Depuis, nous savons créer et conserver sur des supports matériels des documents que nous appelons «Enregistrements» !

    Dans la pratique, nous les avons appelés : disque, CD, bande, fichier, cassette, ou photo, cliché, négatif, film, vidéo, DVD… Ils ont, vous le savez, envahi notre quotidien !

    Mais, qu’est-ce qu’un enregistrement ? C’est une trace qui persiste sur un support matériel (une pellicule, un disque de cire, une bande magnétique, un fichier numérique…). Ces traces peuvent, à volonté, être « vues » ou « écoutées ». À chaque restitution, le signal est, semble-t-il, pareil à sa source. Nous avons le sentiment que la technique nous a donné le pouvoir de revenir dans le passé. C’est une fiction, mais nous l’oublions(3).

    Dans son ouvrage La Chambre Claire, Roland Barthes a écrit : «La photo répète indéfiniment ce qui s’est passé qu’une seule fois». Il en va de même pour l’enregistrement sonore ! Après la Première Guerre mondiale, on assiste à l’extension de ce qu’on a nommé l’électronique(4). Fille de l’électricité, l’électronique a propulsé les électrotechniques dans la modernité.

    L’électronique nous entoure et intervient dans tous les secteurs de notre vie. Du radar à la carte bancaire ; de la télévision au téléphone mobile et aux jeux vidéo, tout est électronique ; même l’ordinateur et le monde du numérique !

    L’électro-acoustique est tout particulièrement tributaire de l’électronique. C’est grâce à elle que se sont développés : le cinéma parlant, la radiodiffusion, les studios d’enregistrements et de création sonores, les instruments de musique électronique (notamment, la guitare électrique), la haute-fidélité, etc.

    Mais tout ça n’existe que parce que les Américains Chester W. Rice et Kellogg Edward ont inventé, en 1924, le « haut-parleur électrodynamique à bobine mobile » !

    De l’importance du haut-parleur

    Quel que soit l’intelligence des moyens mis en œuvre pour créer, traiter ou enregistrer et diffuser des sons électroacoustiques, cela ne servirait à rien si, à la fin il n’y avait pas un dispositif pour convertir(5) les signaux électriques en une onde sonore. Ce dispositif c’est le Haut-Parleur (haut-parleur). La présence d’un haut-parleur(6) est la condition sine qua non de la chaîne électroacoustique.

    C’est le haut-parleur que l’auditeur écoute ; rien d’autre !

    Une foule de haut-parleurs nous entoure. Ils sont partout ; dans nos salons, dans nos poches, dans nos véhicules, dans nos églises et nos écoles. Ils participent à notre vie.

    Sans qu’on s’en rende compte, nous sommes soumis aux haut-parleurs. C’est le premier des médias. Il nous influence ! Écouter un haut-parleur c’est subir et participer à la société. Les infos, les consignes, les avis, les ordres, les slogans ; tout passe par le truchement du haut-parleur !

    Le haut-parleur est le vecteur d’un monde inégalitaire ! D’un côté, il y a celui qui est devant le haut-parleur et qui écoute ; de l’autre, il y a celui qui est derrière et qui parle ! L’un est passif ; l’autre est actif. Ils n’ont pas les mêmes pouvoirs.

    Parmi ceux qui ont la puissance de contrôler les moyens techniques, beaucoup nous manipulent, entre autres, les publicitaires, les politiciens, les réalisateurs, les compositeurs, les interprètes, ainsi que toute sorte de médialogues.

    Avec le haut-parleur, l’espace public entre dans ma maison (la radio, la télé, le téléphone…) Un peu d’électro-psychoacoustique (de cuisine !)

    Face à un haut-parleur qui émet des sons, tout auditeur se trouve dans une situation conflictuelle.

    Pour l’auditeur, le signal entendu est bel et bien un événement acoustique qui se passe ici et maintenant, mais l’analyse qu’il fait de ce qu’il entend ne colle pas avec la logique des sons perçus.

    Le haut-parleur est une source sonore très particulière. Les sons qu’il émet ne sont pas provoqués par les vibrations naturelles de son corps physique, mais par ceux provoqués par les variations d’un courant électrique appelé « signal » qui traverse sa bobine mobile ; laquelle agite l’air environnant au rythme des va-et-vient du cône de carton dont elle est solidaire !
    Comme il n’existe pas de « son virtuel » (un son entendu, mais qui n’aurait pas de réalité physique ; comme une image dans un miroir ou sur un écran), toute écoute de sons dénonce une source réelle.

    Lorsqu’on entend un haut-parleur, ce sont bien des sons réels qui stimulent nos oreilles et cela, quelle que soit notre interprétation !

    Le haut-parleur est un drôle de sophiste ; un sacré menteur ! Il émet des sons qui sont réels et présents, mais qui nous apparaissent comme des illusions sonores.

    Pour tenter de résoudre l’énigme du haut-parleur, nous entrons dans une sorte d’écoute particulière qui fait abstraction du présent et du lieu où ça se passe ; je dirais, une écoute
    « paratemporelle ». Une écoute détachée du « présent » de l’auditeur.

    Cela est vrai pour l’auditeur, tant qu’il est conscient que la source des sons est un haut- parleur. Par contre, si l’auditeur n’a pas cette conscience, il peut considérer que le son qu’il entend provient d’une source réelle et témoigne d’un événement contemporain. Il est trompé.

    Il en va autrement pour celui qui, en studio, conçoit et réalise, une œuvre sonore. Lui aussi écoute un haut-parleur, mais c’est pour contrôler ses intentions. Il écoute au présent ; il fait le
    « donner à entendre » selon sa volonté.

    Quels que soient les techniques électroacoustiques(7) qui seront mis en œuvre, c’est finalement l’écoute d’un haut-parleur qui, pour l’auditeur, matérialisera la chose « donnée à entendre ».
    Trois techniques ; trois aspects du « temps du haut-parleur »

    À partir 1925, trois techniques se sont imposées :

    1. L’amplification : c’est l’amplificateur qui permet d’entendre, des orateurs dans les meetings, des informations utiles dans les gares, beaucoup d’artistes sur scène. C’est aussi l’amplificateur qui nous permet d’écouter les instruments de musiques dites « électroniques » (la guitare électrique, les orgues électroniques, synthés…). En pratique, nous parlons de « sonorisation ». La sonorisation place l’auditeur dans une situation plutôt simple, ce qu’il entend se fait à l’instant. On peut voir la source. Tout va bien ; nous sommes dans la vraie vie. Malgré l’artifice de la technique ; c’est du temps au « présent de l’indicatif » !
    2. La télétransmission : après la sonnette et le téléphone, c’est l’arrivée de la « radio » qui va transformer la communication entre les hommes.

    C’est tout un univers qui s’est créé avec : l’émetteur, les studios, les émissions, les reportages… Aujourd’hui, écouter la radio est un acte habituel. Pourtant, là encore, l’auditeur croit écouter des hommes et des musiques venus d’ailleurs, alors qu’il écoute un HP ! Et puis, à la radio, le plus souvent, on ne peut pas discerner le « direct » du « différé ». C’est-à-dire que la radio peut diffuser du direct (comme le téléphone) ou des émissions enregistrées. Il y a confusion des temps. Selon que l’on sait que l’émission est en direct ou en différé, notre écoute est différente… voici une petite anecdote pour éclairer mon propos :

    L’autre jour, j’écoutais un débat radiophonique qui me passionnait. J’étais complètement accaparé par les propos échangés et je « vivais » le moment avec les interlocuteurs. Mais, à un moment donné, un détail me fit comprendre qu’en réalité, j’écoutais un enregistrement et que l’émission datait de quelques années. Après, j’écoutai toujours le débat avec intérêt, mais je n’étais plus dans le coup ; j’étais maintenant, à l’écoute d’une archive sonore. !
    3 L’enregistrement : un enregistrement sonore nous permet d’entendre maintenant des sons qui se sont produits antérieurement.

    Il va sans dire que l’auditeur n’écoute pas de vieilles vibrations qui, comme les « paroles gelées » de Rabelais, auraient été conservées dans un frigo et qui ressusciteraient par la magie des machines ! Non, ce qu’il entend, ce sont les sons produits, dans le haut-parleur, par la « lecture » des informations qui constituent l’enregistrement. Un enregistrement n’existe que par le truchement d’un haut-parleur qui diffuse des sons réels. Alors, quel est notre sentiment quand, par exemple, nous écoutons l’enregistrement de la voix d’une personne connue, mais disparue ?

    L’enregistrement créateur d’Arts : l’art du montage

    C’est le cinéma qui a inventé le « montage ». C’est à dire, le choix et l’organisation de portions de pellicules (les rushes), qu’on met bout à bout dans le but de créer une continuité signifiante appelée « film ». C’est avec le concept de film que le cinéma est devenu un art à part entière.

    Vers 1930, avec l’invention du « cinéma parlant » (enregistrement optique), le son a aussi été « monté » afin que les fragments d’enregistrement sonores soient synchronisés avec les images. Le magnétophone

    Avec l’apparition du magnétophone à bande, le montage des sons devenait possible dans d’autres domaines que le cinéma. Ce sont les Radios, vers 1950 qui ont adopté le montage et ont créé à leur tour des œuvres originales et un art spécifique : l’Art radiophonique.

    Grâce au montage, le créateur se joue de nos oreilles et va « nous faire entendre ce qui n’existe pas avec des sons qui existent ».

    Une foule de créateurs ont été séduits par les ressources du magnétophone. Ils ont inventé toutes sortes de disciplines nouvelles ; je pense notamment : à Pierre Schaeffer avec la musique concrète, mais aussi à Jean Tardieu et la fiction radiophonique, à Henri Chopin et la poésie sonore, et Yann Paranthoën et Alain Trutat, Bernard Parmegiani, André Almuro et beaucoup d’autres que j’ai eu l’honneur de connaître et de rejoindre dans leurs expériences et d’apporter, a mon tour, une modeste contribution (application de l’électroacoustique au théâtre). Tous faisaient de l’enregistrement sonore et du montage et, bien sûr, leurs œuvres ne pouvaient être entendues que par le truchement d’un haut-parleur. Étaient-elles intemporelles ?

    Temps réel ou différé

    Avant de pouvoir disposer des moyens d’enregistrement et de diffusions sonores, les notions de « temps réel  » et de « temps différé » n’existaient pas.

    En 1952, lorsque je commençais à jouer du « magnéto » dans les studios consacrés à la création électroacoustique, ces questions de temps relatifs, ne se posaient pas beaucoup.

    À la radio, il était habituel et utile d’informer les auditeurs de la temporalité de l’émission pour éviter la confusion. D’ailleurs, le direct (temps réel) a eu, très vite, la préférence du public. Le « différé » étant, semble-t-il, mal ressenti ; voire considéré comme un bricolage de la « vérité » ! Il n’y a pas qu’à la Radio que le temps différé est « mal vu » ; j’évoque le scandale du « playback » !

    Avec l’objet sonore et l’écoute réduite (s’affranchir de la causalité des sons), Pierre Schaeffer a, indirectement, proposé une solution à l’écoute des enregistrements. Il n’est pas certain qu’on ait bien compris ce qu’il voulait nous dire.

    Mettre en opposition le temps réel et le temps différé, n’a de sens que dans l’hypothèse où ces deux situations se présentent simultanément. C’est le cas de la musique « mixte » ; d’ailleurs, ce sont les musiciens qui éprouvent certaines gênes lorsqu’ils jouent en direct avec l’intervention de sons enregistrés ; pas les auditeurs.

    Dans la situation terriblement ambiguë du concert électroacoustique, les musiciens se sont longtemps prêtés aux expériences des créateurs des studios.

    Aujourd’hui, avec l’irruption et la suprématie de l’informatique, les choses ont beaucoup changés et l’électro-acoustique et l’enregistrement ont été instrumentalisés au service des « envies » des compositeurs et des interprètes de musiques instrumentales.

    À l’époque de Répons (1981) Pierre boulez a profondément révolutionné le statut de la musique électroacoustique. Dans cette pièce « historique » le centre du lieu de concert était occupé par un orchestre de chambre autour duquel, il y avait le public, lui-même entouré par des instruments solistes qui étaient reliés à un gros dispositif informatique chargé de transformer et de spatialiser le son de leurs instruments. Un dernier cercle de HP fermait le dispositif. Ces HP, en plus de la diffusion des signaux provenant de l’ordinateur, diffusaient des enregistrements sur bandes. Dans sa présentation, Boulez indiquait que le rôle des magnétophones était de produire, de temps en temps des sons faisant office de « papier peint » (interlude) pour meubler d’éventuels silences imprévus !

    Temps réel et temps différé

    Pour l’informaticien, un système en « temps réel » c’est un système qui fait beaucoup de choses en un temps si court (instantanément !) qu’on ne perçoit pas le délai (latence, temps différé) qui existe entre la commande et son exécution ; entre l’entrée des données dans le système et leurs sorties après transformation. Le temps différé est ici ressenti comme une paresse ! Il va sans dire que les musiciens vont beaucoup apprécier ces dispositifs en temps réels, car cela va leur donner une infinité de nouveaux registres à leur jeu instrumental.

    En trois décennies, l’IRCAM a réussi à faire que l’art « Haut-parlant », que les artistes des premiers studios avaient développés, soit tombé en désuétude au profit de logiciels de générations sonores concoctés par des ingénieurs.

    Plein de regrets et de nostalgie, je me console en écoutant ces nouvelles manifestations de MAO sur mon antique haut-parleur… en léger temps différé, quoique paratemporel !

    Pierre Boeswillwald. 16 novembre 2013

    (1) Il y a eu, d’abord, la « mécanoacoustique » et il y a aussi l’électro-optique qui est souvent associée à l’électro-acoustique.
    (2) On peut dire que la sonnette est le plus ancien instrument de musique électroacoustique, car à l’époque, on a imaginé et peut-être construit, des carillons de sonnettes avec claviers ! Le carillon de sonnettes ne semble pas avoir eu un grand succès, mais le même principe est toujours appliqué aux carillons de cloches dans les beffrois.
    (3) Roland Barthes dans son livre La chambre claire s’est interrogée sur la nature de la photographie. Vers 1953, au studio de la maison des lettres de la Sorbonne, il avait aussi commencé à s’interroger sur la nature de l’enregistrement sonore. Il ne semble pas qu’il ait laissé des traces de ce travail. (4) En gros, l’électronique est la partie de la physique appliquée, qui traite, notamment de la mise en forme et de la gestion de signaux électriques. (5) Le haut-parleur est un transducteur (convertisseur). Il convertit les variations d’un courant électrique en variations analogues de la pression atmosphérique (onde sonores) aptes à être entendues par un auditeur.
    (6) Pratiquement, le haut-parleur est toujours associé à une enceinte. Si, aujourd’hui, la qualité acoustique de la diffusion sonore est devenue très grande, c’est pourtant toujours les mêmes principes électroacoustiques qui sont mis en œuvre !
    (7) En dernière analyse, écoutées sur HP ; l’analogique et le numérique sont confondus !



    Version pdf


  • Jean-Marc Duchenne, compositeur, vous propose

    Mise à jour des célèbres pages de ressources de Jean-Marc Duchenne sur divers aspects du multicanal…


    quelques causeries au coin du haut-parleur

    À la recherche de l’espace concret

    Une série de vidéos-causeries au coin du haut-parleur, autour de la question de la sonofixation spatiale et des moyens concrets que l’on peut mettre en œuvre pour en faciliter la création et la diffusion.

    http://sonsdanslair.fr/causeries.htm


    /sep

    de l’autre côté de la membrane

    l’envers des œuvres…

    http://sonsdanslair.fr/autre-cote.htm


    télécharger – les pièces

    Les pièces qui peuvent être téléchargées ici, soit dans leur format original soit à travers des adaptations ou des transcriptions, peuvent être utilisées selon les cas pour des diffusions publiques ou dans un cadre pédagogique. N’hésitez pas à me contacter…

    • Formats et compatibilités
      • A. les fichiers multicanaux originaux
      • B. les fichiers 50 canaux pour maillages libres et acousmoniums
      • C. les fichiers encodés en ambisonique d’ordre 7

    http://sonsdanslair.fr/telecharger.htm


    SPATSTRUMENTS et MIXAGE FOU

    Ouitls et infos sur la spatialisation

    (initialement pour le dernier Mixage Fou, mais constitue un bon résumé sur les questions des formats)

    http://acousmodules.space/mixagefou12.htm


    RESOURCES / SUPPORT

    allez vers ce lien ! -> http://acousmodules.space/ressources.htm

    Les ressources présentes sur cette page devraient aider à clarifier certains aspects de l’utilisation des Acousmodules et du travail multiphonique en général 

    (Ce qui suit est une résumé avec qu’élues liens. Allez vers le lien ci-dessus pour la page complete)

    TUTORIALS
    • Tuto-Start : how to start a multichannel project in various hosts (Reaper, Bidule, Audiomulch, VSTHost, Usine…)
    • Quelques planches illustrées (currently only in French, but the pictures can be understandable…)
    VIDEOS
    GESTURE CONTROLLERS
    OTHER FREE MULTICHANNEL PLUGINS & TOOLS
    • Spatialization
    • « Effects »
    • Instruments
    • Binaural
    • Standalone apps & utilities
    • Hosts
    • Audio routers (free or not)
    Comparisons charts
    • Reaper’s ReaSurround, GRM-Tools Spaces-3D and the spatialization Acousmodules series
    • Multichannels reverberations plugins (8 channels / o2 minimum)
    • Spatial format conversions


  • Logiciels – Liste Aecme

    Logiciels et autres utilitaires utilisés par les membres de l’AECME
    (liste compilée par Florian Gourio)

    1. Sequencer
    2. Mastering
    3. Programmation
    4. Synthèse
    5. Utilitaires
    6. Analyse
    7. Editeurs de Partitions
    8. Plug-ins
    9. Sampler
    10. Banque de sons
    11. Jeu Vidéo
    12. Dessin/Photo
    13. Vidéo
    14. Vidéo Mapping et Lumières

    Sequencer

    Commerciaux
    Pas cher (essai gratuit illimité)
    Gratuits

    Mastering

    Commerciaux
    Gratuits

    Programmation

    Commerciaux
    • Max (MacOS, Win)
    Gratuits

    Synthese

    Commerciaux
    Gratuits

    Utilitaires

    Commerciaux
    • LoopBack (Mac) – Routing signal Audio
    Gratuits
    • Atom (MacOS, Win, Linux) – Editeur de texte
    • Deeper (MacOS) – Utilitaire pour l’OS
    • Namechanger (MacOS) – Change les noms de fichiers
    • Onyx (MacOS) – Utilitaire de disque
    • BlackHole (Mac) – Routing signal Audio
    • SoundFlower (Mac)- Routing signal Audio

    Analyse

    Commerciaux
    Gratuits

    Editeurs de Partitions

    Commerciaux
    Gratuits

    Plug-ins

    Commerciaux
    Gratuits

    Sampler

    Commerciaux
    Gratuits

    Banque de sons

    GRATUITES

    Jeu Vidéo

    Commerciaux
    Gratuits

    Dessin/Photo

    Commerciaux
    Gratuits

    Vidéo

    Commerciaux
    Gratuits

    Vidéo Mapping et Lumières

    Commerciaux
    Gratuits


  • Tutoriaux MAX 8 – Patrick Roudier

    Voici, en ligne, sur le site de l’AECME, la version française de l’intégrale des tutoriaux Max8, d’après la Max8 Online Documentation, consultée sur https://docs.cycling74.com.

    J’ai effectué ces traductions pour soutenir mon enseignement de la composition électroacoustique sur la base d’une documentation qui soit, pour reprendre le titre d’un livre de l’écrivain Denis Roche, «un dépôt de savoirs et de techniques». Ce qu’est, littéralement, la documentation Max8.

    Pour ce faire, il me fallait donner toutes les clés de la documentation aux élèves vaguement ou pas du tout anglophones. La traduction française devrait permettre à tout un chacun la saisie des concepts et exemples des divers didacticiels, acquisition simplifiée et, je l’espère, rendue plus fluide.

    La lecture de ces documents nécessite, du moins je le pense, la mise en place du logiciel Max8 sur son ordinateur. Ce, pour tout simplement avoir accès aux patchs des nombreux didacticiels. Je crois aussi que la réécriture de ces exemples sur un patch vierge, reliée à la lecture de ces traductions, donnera un peu plus de souplesse à la manipulation des divers objets présents dans Max8.

    Vous remarquerez, sans doute, que certains didacticiels sont absents de la documentation Jitter. Les numéros 22, 23, 24, 27, 44. On peut y lire qu’avec le retrait d’Apple du support QuickTime, un certain nombre d’objets jit.qt. ne sont plus disponibles.
    Je dirais, pour finir, que la musique électroacoustique, telle que je l’ai pratiquée et enseignée, demande une pratique d’auto-formation permanente. C’est dans ce but que je dépose ces traductions sur le site de l’AECME.

    Patrick Roudier, 2022

    Merci à Patrick Roudier, membre d’honneur à l’AECME d’avoir fait ce travail monumental de traduction des tutoriaux de Max 8 – publié ici avec la permission de Cycling74.




    Tutoriaux MAX

    1 – MAX tutoriaux de base 1-22
    1. Bonjour
    2. Bang!
    3. nombres et Listes
    4. Metro et Toggle
    5. ordre des messages et débogage
    6. SimpleMath in Max
    7. interfaces numériques utilisateur
    8. saisie au clavier et à la souris
    9. dessin à la souris
    10. dessin aléatoire
    11. procédure de dessin
    12. lecture de film
    13. séquençage vidéo
    14. encapsulation
    15. abstractions
    16. messages à distance
    17. structures de données et probabilités
    18. collection de données
    19. chronométrage
    20. mode présentation
    21. controle du flux de données
    22. concevoir des équations
    2 – MAX tutoriaux MIDI 23-27
    1. MIDI de base
    2. gestion des notes MIDI
    3. analyse MIDI
    4. séquençage MIDI de base
    5. séquençage avancé MIDI
    3 – MAX tutoriaux de données 28-32
    1. visualisation de données
    2. mise à l’échelle des données
    3. capture de geste
    4. Cellblock
    5. traitement de liste
    4 – MAX tutoriaux de communication 33-35
    1. périphériques à interface humaine
    2. communication en série
    3. mise en réseau UDP
    5 – MAX tutoriaux d’interface 36-37
    1. bpatchers
    2. éléments UI
    6 – MAX tutoriaux Pattr 38-39
    1. stockage de patcheur
    2. liaisons automatiques et stockage
    7 – MAX JavaScript 40-43
    1. JavaScript de base
    2. écrire en JavaScript
    3. taches, arguments et objets globaux JavaScript
    4. conception d’interfaces utilisateur en JavaScript

    Tutoriaux MSP

    1 – MSP Themes 1-4
    1. introduction
    2. comment fonctionne l’audio numérique
    3. patches MAX et réseau de signaux MSP
    4. entrée et sortie audio
    2 – MSP tutoriaux de base 5-9
    1. test de tonalité
    2. oscillateur réglable
    3. oscillateur à table d’onde
    4. routage des signaux
    5. révision des principes de base
    3 – MSP tutoriaux de synthese 10-14
    1. synthèse additive
    2. modulation en anneau et tremolo
    3. utilisation de la modulation d’amplitude
    4. vibrato et FM
    5. modulation de fréquence
    4 – MSP tutoriaux de sampling et d’enregistrement 15-21
    1. enregistrement et lecture
    2. lecture simultanée
    3. lecture avec des boucles
    4. table d’ondes à longueur variable
    5. synthèse-Mise en forme d’onde
    6. enregistrer et lire des fichiers audio
    7. révision de l’échantillonnage
    5 – MSP tutoriaux de filtres 22-26
    1. filtres simples
    2. filtres de type variable
    3. synthèse de style analogique
    4. synthèse soustractive
    5. filtres en parallèle
    6 – MSP tutoriaux de dynamique 27-29
    1. suivi d’enveloppe
    2. traitement dynamique
    3. distorsion
    7 – MSP tutoriaux MIDI 30-32
    1. mappage MIDI vers MSP
    2. synthé MIDI
    3. sampler MIDI
    8 – MSP tutoriaux de polyphonie 33-35
    1. l’objet poly~
    2. synthèse granulaire
    3. données de controle de la fréquence audio
    9 – MSP tutoriel de séquencage 36
    1. séquençage de débit audio
    10 – MSP tutoriaux de panoramique 37-39
    1. panoramique simple
    2. panoramique stéréo
    3. panoramique multicanal
    11 – MSP tutoriaux d’analyse 40-43
    1. signaux et vu-mètres
    2. oscilloscope et spectroscope
    3. utilisation de la FFT
    4. traitement du signal avec pfft
    12 – MSP tutoriaux de delay 44-49
    1. lignes de retard
    2. lignes de retard avec feedback
    3. feedback AGC
    4. flanging
    5. chorus
    6. filtre en peigne
    13 – MSP tutoriaux de Plug-in 50-52
    1. plug-in d’effets
    2. instruments
    3. plug-ins AMXD
    14 – MSP tutoriaux de compression 53-63
    1. intro-Qu’est-ce que la compression?
    2. limiteur de cretes
    3. compression de base
    4. modification de la compression
    5. compression sur de vrais instruments
    6. compression multibande 1
    7. compression multibande 2
    8. saisie (keying)
    9. micro-sons
    10. ducking
    11. controle du feedback

    Tutoriaux JITTER

    1 – JITTER Les themes
    1. Qu’est-ce qu’une matrice?
    2. Quels sont les attributs?
    2 – JITTER 1-52
    1. lecture d’un film
    2. créer une matrice
    3. opérations mathématiques
    4. controles de la lecture d’un film
    5. couleurs ARGB
    6. ajuster les niveaux de couleur
    7. réglage du niveau d’image
    8. mixage simple
    9. plus de mix
    10. Chromakeying
    11. listes et matrices
    12. tables de consultation des couleurs
    13. colle et ciseaux
    14. positionnement matriciel
    15. rotation d’image
    16. matrices nommées
    17. rétroaction à l’aide de matrices
    18. processus itératifs et ré-échantillonnage de matrice
    19. enregistrer un film
    20. import export de matrices
    21. vidéo en direct et entrée audio

    (22-24 obsoletes à cause du retrait de quicktime)

    1. suivi des couleurs
    2. controle MIDI de la vidéo

    (27 obsolete à cause du retrait de quicktime)

    1. controle audio de la vidéo
    2. canal alpha
    3. dessin de textes 3D
    4. rendu des destinations
    5. vue caméra
    6. modes polygonaux, couleurs et mélange
    7. utilisation des textures
    8. éclairage et brouillard
    9. modèles 3D
    10. géométrie sous le chapeau
    11. configuration des performances de base
    12. cartographie spatiale
    13. dessin en OpenGL utilisant jit.gl.sketch
    14. Shader
    15. Slab-traitement des données sur le GPU
    16. un slab bien à vous

    (44 obsolete à cause du retrait de quicktime)

    1. introduction à l’utilisation de Jitter dans JavaScript
    2. manipulation des données matricielles à l’aide de JavaScript
    3. utilisation de rappels d’objets Jitter en JavaScript
    4. trames de signaux MSP
    5. espaces couleurs
    6. texturation procédurale et modélisation
    7. Jitter Java
    8. mise en réseau de Jitter
    3 – JITTER annexes
    1. Annexe 1 – QuickTime confidential
    2. Annexe 2 – le format de matrice OpenGL
    3. Annexe 3 – le format de fichier JXS

  • Florian Gourio – tutoriaux sur youtube

    Florian Gourio, membre de l’AECME et prof au CRD de Cannes a fait des tutoriaux vidéo qu’il partage sur youtube pour – Reaper, Audiacity et Musescore.


    Playlist des tutoriaux Musescore :


    Playlist de tutoriaux Reaper :


    Playlist de tutoriaux Audacity :


  • Marcel Frémiot – entretien

    lien wikipedia

    Entretien et film réalisés par Jacques Raynaut et Pascal Gobin, à l’occasion des Foliephonies organisées à Perpignan par Lucie Prod’homme en mai 2017

    Plus d’infos sur Marcel Frémiot

    Et encore plus d’info…


  • De la part d’Alain Savouret


    Pour information et divulgation nous portons à votre connaissance l’adresse du site
    Improvisation Générative : le Recueil-audio

    Elle donne accès à l’écoute et au téléchargement gratuit de pièces électroacoustiques destinées à l’exercice de l’improvisation en appui sur un support audio-numérique haut-parlant :

    http://improvisationgenerative.wordpress.com


  • Pierre Boeswillwald

    Un entretien de Pierre Boeswillwald par André Dion février 2016 (audio)


  • Base musiques mixtes et temps réel

    Vous cherchez des pièces mixtes et/ou temps réel ? Voilà un document pourra vous aider…

    Mode d’emploi de la base :

    Il est possible de mettre des filtres afin de trouver une formation, un compositeur, une compositrice, etc.

    Pour cela, cliquer sur un des menus pour la colonne choisie pour le filtrage, puis cliquer sur “effacer” et sélectionner ce que l’on cherche (ou taper le début du mot ou du nom dans le champ de recherche puis cliquer dessus pour sélectionner).

    Valider avec “ok”, et le résultat s’affiche.


  • Une introduction à la musique acousmatique

    Un film réalisé par Térence Meunier en 2012, dans le cadre de mémoire d’étude au conservatoire à rayonnement régional de Paris, sous la direction de Denis Dufour.


  • Groupe Musical Universitaire de Pau

    Un dossier de 1989 sur le GMU : GROUPE MUSICAL UNIVERSITAIRE, Faculté des sciences de PAU, créé en 1972.

    Merci à Agnès Poisson et Daniel Bisbau pour ce document historique