Composer le son : expériences avec l’ordinateur, 1964-1989
p. 107-126
Texte intégral
1Les sons de mon enfance étaient d’origine mécanique : même les phonographes étaient à manivelle. J’ai découvert les sons électroniques avec les parasites siffleurs des radios ondes courtes ; et mes premières compositions étaient purement instrumentales. Pourtant j’ai tiré parti de l’ordinateur dans la réalisation de la plupart de mes œuvres musicales — moins pour composer la musique que pour façonner le matériau sonore. Dans mes pièces Suite Little Boy (1968) et Mutations (1969), nulle trace sonore du monde réel : tous les sons ont été synthétisés par ordinateur à partir des prescriptions du compositeur. Dans Songes (1979) et Sud (1985), l’ordinateur a servi aussi à traiter des sons réels pour les transformer musicalement. Pourquoi avoir recours à l’ordinateur, qui paraît à première vue une machine si peu musicale ?
2L’irruption de l’informatique crée une situation tout à fait nouvelle dans le domaine du son et de la musique. La création électro-acoustique du son le fait échapper aux contraintes mécaniques : mais ce n’est qu’avec l’informatique qu’on peut produire ou traiter le son suivant des modalités extrêmement diverses, de façon toujours précise et reproductible. Le son n’est plus la trace acoustique d’objets matériels, il peut être programmé, construit ou infléchi à volonté en vue d’un résultat auditif. D’autre part, la notation musicale a suggéré certaines transformations compositionnelles, comme le renversement ou la récurrence : la puissance de manipulation logique qu’offre l’informatique est à même de démultiplier le rôle de la notation structurale et de proposer de nouveaux modes de composition. On peut étendre la démarche compositionnelle jusqu’à la composition des sons eux-mêmes. L’enjeu de la recherche en informatique musicale n’est pas seulement de fournir des outils plus performants à des fins bien circonscrites, il est aussi d’envisager toutes les implications potentielles de cette situation nouvelle. On le voit, le rôle de l’ordinateur n’est pas envisagé ici comme celui d’un simple outil, mais plutôt d’un atelier permettant de concevoir et de mettre en œuvre toutes sortes d’outils — outils intellectuels aussi bien que matériels, pouvant agir sur la logique du développement compositionnel aussi bien que modeler ou sculpter le son. Comme l’écrit Michel Serres, « l’ordinateur peut se dire outil universel : instrument construit et concret sous la main, mais d’application ouverte et indéfinie comme un théorème ».
3J’ai toujours eu un grand intéret pour l’usage musical du timbre. Le timbre n’est souvent qu’un ingrédient auxiliaire de la musique, extrinsèque à la structure musicale et utilisé surtout à des fins cosmétiques. Bien des musiques ont été composées « pour divers instruments », sans plus de précision. De façon similaire, les tableaux étaient autrefois copiés sous forme de gravures : la couleur manquait, mais elle n’était considérée que comme un embellissement dont on pouvait se passer. Mais il est des peintures qui, sans la couleur, perdraient toute signification. En anglais ou en allemand, on désigne le timbre comme la couleur du son : je souhaitais conférer à cette couleur sonore un rôle plus fonctionnel. Insatisfait de composer à partir de sons préexistants, j’aspirais à étendre mon activité de composition jusqu’au niveau de la microstructure sonore et pouvoir composer le son moi-même.
4Dans les années soixante, la musique électro-acoustique avait déjà contribué à étendre la gamme de sons utilisés en musique : cependant elle ne m’attirait pas vraiment. La musique concrète, partant de sons réels enregistrés, donnait certes accès à un vocabulaire sonore immense : mais les transformations sonores me paraissaient rudimentaires en regard de la richesse et de la personnalité des sons de départ. La musique électronique partait d’un matériau sonore plus malléable — mais simple et terne, à moins de le livrer à des transformations qui faisaient perdre dans une large mesure le contrôle qu’on pouvait exercer sur lui. Je ne voulais pas renoncer à ce qu’offraient les instruments — richesse des sons et possibilité de les commander avec finesse : aussi n’ai-je pas délaissé la composition pour les instruments au profit de la musique concrète ou électronique. En revanche, j’ai été attiré par la synthèse directe du son par ordinateur, mise en œuvre par Max Mathews aux Bell Laboratories dès la fin des années cinquante. Le compositeur demande ici à l’ordinateur de calculer directement l’onde sonore, un peu comme s’il gravait directement le sillon du disque. On peut en principe produire de cette manière n’importe quel son, sans restrictions ou contraintes a priori. Il faut pour cela fournir à l’ordinateur une description complète de la structure physique du son voulu. Cela permet de contrôler tous les détails de cette structure : l’utilisateur peut la composer à volonté comme il composerait un accord ou un épisode instrumental — la recette de synthèse joue le rôle de partition sonore.
5Les instruments de musique ont des configurations mécaniques stables, et ils donnent lieu à des sons aux caractéristiques distinctives : à l’opposé, la programmation permet une ductilité et une variabilité sans précédent. La synthèse directe promet donc l’accès à un matériau sonore sans limitations matérielles, susceptibles de multiples transformations, et pouvant se prêter à l’élaboration de constructions musicales nouvelles. Mais il faut conquérir ces nouveaux territoires. Pour fabriquer n’importe quel son, l’ordinateur en requiert la description exhaustive : aux débuts de la musique par ordinateur, on était incapable de la fournir, même pour des sons familiers. Il a fallu beaucoup d’expériences et de recherches pour parvenir à évoquer et contrôler musicalement les sons désirés. J’ai eu le privilège de travailler à cette exploration avec Max Mathews, aux Laboratoires Bell, entre 1964 et 1969. Les premières synthèses sonnaient ternes, mécaniques : il fallait « musicaliser » l’ordinateur. Il a fallu apprendre à imiter les sons instrumentaux, dont les traités d’acoustique ne donnaient que des descriptions rudimentaires et insuffisantes. D’autres musiciens ont contribué à cette exploration, spécialement John Chowning, dont les œuvres Turenas, Stria et Phone sont des exemples marquants de processus musicaux qui n’ont pu être mis en œuvre que grâce à l’ordinateur — mouvements illusoires dans l’espace, trajectoires et métamorphoses de timbre, contrôle de la consonance en fonction de la structure interne du son.
6La recherche continue aujourd’hui dans divers centres comme le Computer Center for Research in Computer Music and Acoustics, fondé par John Chowning à l’Université Stanford, l’IRCAM, le GRM, et notre Laboratoire d’Informatique et d’Acoustique musicale à Marseille (Laboratoire de Mécanique et d’Acoustique du CNRS et Faculté des Sciences de Luminy). Il s’agit d’une recherche aussi bien scientifique que musicale, qui a déjà apporté d’importants enseignements sur la perception : on s’est aperçu qu’il fallait prendre en compte des modalités très spécifiques de l’audition. Mais, en tirant parti de ces modalités, on peut créer des illusions ou paradoxes sonores et envisager de nouvelles méthodes pour contrôler le son et son effet auditif.
7Dans mes œuvres Little Boy (1968) et Mutations (1969) interviennent des simulacres d’instruments, mais aussi des textures sonores composées comme des accords, et des illusions auditives. Dialogues (1975), Inharmonique et Moments newtoniens (1977) mettent en scène des rencontres « du troisième type » entre les sons d’instrumentistes vivants, sur scène, et les sons synthétiques qui peuvent s’approcher de très près des sons instrumentaux, les prolonger, ou en diverger complètement. Plutôt que de synthétiser les sons et de leur insuffler vie et identité, il peut paraître plus facile de traiter numériquement des sons enregistrés. Mais la modification de sons complexes peut rester grossière et extérieure. La synthèse permet des transformations très intimes car on peut exercer un contrôle fin à la source de la construction du son. Certaines transformations de sons enregistrés peuvent donner des résultats intéressants et nouveaux grâce à la précision du traitement numérique. J’en ai tiré parti dans Mirages (1978) et Songes (1979), et surtout dans Sud (1985), Voilements (1987), Attracteurs étranges (1988). Mais il faut en général procéder à des transformations par analyse et resynthèse pour pénétrer à l’intérieur du son et le transformer de façon intime : et ces transformations sont difficiles, elles demandent beaucoup de ressources de calcul ; et chacune se prête mieux à certains types définis de transformation. Aussi, en dépit de l’utilité du traitement, l’intérêt musical de la synthèse subsiste.
8L’ordinateur permet de contrôler la synthèse des sons constituants aussi bien que leur agencement : il devient artificiel de séparer grammaire et vocabulaire. Cependant, le dernière pièce que j’ai réalisée, Duo pour un pianiste (1989), ne comporte que des sons de piano : mais un ordinateur y intervient pour associer au pianiste un partenaire fictif qui ajoute sa propre partie sur le même piano : cette partie dépend de ce que joue le pianiste et de la façon dont il joue. Ici l’ordinateur, gérant les relations compositionnelles, sert de médium entre l’interprète et son double illusoire.
Le matériau musical numérique : accumulation ou obsolescence
9L’étude du son musical a suscité des développements informatiques pour faire de l’ordinateur un outil raffiné et différencié, permettant à chacun de sculpter le son à sa manière — alors qu’on ne voit bien souvent dans l’ordinateur qu’un instrument de normalisation et de dépersonnalisation, ce qui fournit un alibi utile à certaines pratiques abusives. Toute conquête ici peut être préservée ; la précision et la reproductibilité de l’ordinateur permet de rendre les résultats exploitables par d’autres, en d’autres temps et d’autres lieux : j’utilise encore à l’occasion les résultats d’expériences réalisées il y a plus de vingt ans. Les données de synthèse constituent une description complète, une « partition intégrale » qui permet de reconstituer tous les détails, mais qui permet aussi de représenter, d’étudier, d’analyser la microstructure sonore, comme la macrostructure avec une partition traditionnelle, pour élaborer une véritable écriture du son.
10Je ne souhaite pas m’étendre ici sur les progrès techniques de la synthèse ou du traitement numérique des sons (comme je l’ai fait dans divers articles cités en référence, notamment « Des souris et des hommes »). Cependant, leur importance pratique est considérable. Le développement de la microélectronique rend les techniques numériques plus accessibles. Aujourd’hui les synthétiseurs sont pour la plupart numériques : ces outils personnels sont des ordinateurs spécialisés, et même si leur usage est parfois rudimentaire, leurs ressources tirent parti du savoir et du savoir-faire sur le son développé au cours de cette exploration des ressources de la synthèse sonore par ordinateur. En même temps, il faut se garder du fétichisme de l’objet technologique miracle. Ce qui est important, c’est moins le matériel, les circuits, la machine, que le logiciel, les programmes, le savoir-faire. En principe, l’ordinateur, « outil universel », permet l’accumulation des connaissances, du savoir-faire, leur représentation, leur transmission de plus en plus conviviale et efficace, et les promesses des systèmes experts font espérer encore bien davantage. Mais tel micro-ordinateur doté d’un assortiment limité de « menus », tel instrument numérique facile d’emploi, « clés en main », caricaturent les possibilités diversifiées et raffinées de l’informatique : plutôt qu’une ouverture, ils amènent une régression des possibilités. Et les choix effectués sont souvent déterminés par des options commerciales plutôt que par des préoccupations artistiques. Ainsi la synthèse numérique permet de réaliser facilement n’importe quelle échelle de hauteurs, y compris le continuum que souhaitait Varèse ; pourtant, bien des synthétiseurs numériques se confinent à la gamme chromatique, ce « fil à couper l’octave » que Varèse abhorrait : souci par les constructeurs d’exploiter un marché traditionnel plutôt que d’ouvrir de nouveaux territoires.
11Bien des musiciens pensent qu’il n’est point de salut aujourd’hui hors du « temps réel ». Bien sûr, la possibilité de réagir au son à mesure qu’il se fait est essentielle pour faire vivre la musique, et elle offre des possibilités spécifiques, dont tirent parti des pièces comme Jupiter ou Pluton de Philippe Manoury, ou mon Duo pour un pianiste, dont je parle plus bas. Mais il reste problématique de produire en temps réel des textures sonores extrêmement complexes — les disques pop sont souvent façonnés à loisir, hors temps réel, un peu comme le cinéma, la vidéo ou les enregistrements classiques. Et les dispositifs permettant le temps réel sont pour l’instant des processeurs numériques spécialisés et non des ordinateurs universels : il n’y a pas unanimité sur les options souhaitables, aussi ne peut-il y avoir de standardisation. On pourrait penser que c’est une excellente chose : que joue la concurence, et que le meilleur gagne ! Mais cette situation pose des problèmes. Il faut du temps pour réaliser une œuvre sur une machine temps réel donnée : l’adapter à une autre machine est un travail difficile, inintéressant, et parfois impossible, si les possibilités des deux machines sont différentes. Or, le progrès technologique fait que les machines les plus avancées sont tôt supplantées par d’autres machines plus performantes en principe, mais sur lesquelles il peut être difficile, voire impossible, de « porter » une œuvre musicale, comme on « porte » un programme d’un ordinateur sur un autre. Ainsi, bien des œuvres composées il y a quelques années sont caduques parce qu’elles nécessitent un équipement technologique qui a été abandonné depuis. Comme Jon Appleton l’a fait remarquer, cette situation empêche la constitution d’un répertoire et l’approfondissement de traditions d’interprétation. On entend trop souvent des œuvres faisant appel à des ressources techniques considérables et pourtant bien primitives, rudimentaires, manquant d’efficacité ou de maîtrise musicale dans l’usage de ces ressources. Le progrès technique ne doit pas faire du musicien un apprenti sorcier, et encore moins rendre sa musique obsolète !
Paradoxes et spectres fonctionnels : Suite pour ordinateur Little Boy*1
12Cette pièce de 13 minutes, réalisée en 1968 aux Laboratoires Bell, est une des premières œuvres substantielles produites entièrement par ordinateur : tous les sons de la pièce ont été synthétisés à l’aide du programme MUSIC V (Cf. Mathews et al., 1969). La pièce exploite diverses expériences sur la synthèse des sons que j’ai réalisées entre 1964 et 1968, travaillant avec Max Mathews aux Bell Laboratories. Ces expériences sont décrites notamment dans mon catalogue de sons de 1969, qui présente un enregistrement de divers sons synthétisés avec les « partitions » de synthèse de ces sons : ces partitions sont à la fois des recettes de production et des descriptions exhaustives de la microstructure des sons, de même qu’une partition classique décrit la combinaison de divers sons.
13Dans la Suite pour ordinateur Little Boy, plusieurs instruments de musique sont simulés par ordinateur, exploitant les résultats d’expériences imitatives, notamment mon étude sur les sons cuivrés. Mais l’ordinateur a servi aussi à façonner des sons de type non instrumental. J’ai introduit dans cette pièce deux concepts importants. Tout d’abord, la structuration (in) harmonique du timbre. La synthèse permet de composer les spectres, à l’instar des accords, et de leur conférer un rôle fonctionnel et pas seulement coloriste. Une harmonie peut se prolonger dans des timbres synthétiques — possibilité que j’ai souvent reprise, par exemple au début de Mutations (1969) — et elle peut former le noyau de textures mélodiques, à travers les « analyses spectrales d’un accord » qui ouvrent la pièce. Il s’agit déjà de musique spectrale. En second lieu, les sons paradoxaux, allant-au delà de la gamme chromatique indéfinie de Shepard : sons descendant indéfiniment, qui forment la spirale indéfinie du second volet, la Chute, ou sons montant la gamme mais finissant plus bas que le point de départ. La synthèse permet de faire surgir des illusions en construisant des structures sonores spécialement conçues pour faire jouer certains mécanismes perceptifs2.
Mutations, contours
14Mutations* (Bell Laboratories, 1969) est probablement la première pièce qui ait été synthétisée sur un ordinateur dédié, le DDP 224, ancêtre des stations de travail d’aujourd’hui : avec Pierre Ruiz, j’avais adapté sur ce système le programme général de synthèse MUSIC V, en y ajoutant la possibilité de spécifier des courbes par le dessin. Le titre renvoie à des transformations sonores : l’ordinateur permet de passer graduellement d’un champ de hauteurs discontinu — d’une échelle non tempérée de douze sons par octave — à un continuum de hauteur refermé sur lui-même, par le biais de « jeux de mutations » élaborés. Dans les jeux de mutations (ou de mixtures) de l’orgue, chaque note déclenche plusieurs tuyaux produisant des harmoniques artificiels. L’ordinateur permet de façon similaire de libérer à volonté le cortège des harmoniques d’une note, mais cette libération peut se faire suivant des modalités complexes : par exemple, les harmoniques graves peuvent disparaître alors que des harmoniques plus aigus sont introduits, ou les harmoniques peuvent ne pas apparaître dans l’ordre naturel. A partir d’un accord, ce type de développement harmonique donne lieu à des textures mélodiques ou harmoniques dont la trame de hauteur est de plus en plus serrée du grave vers l’aigu. La montée vers l’aigu provoque donc une érosion graduelle de l’échelle discontinue de hauteur, dont les degrés se rapprochent jusqu’à ce que l’oreille les confonde. L’introduction de composantes à intervalles d’octaves permet de réaliser des changements de hauteur sur une même note, puis des spirales ascendantes dont la montée indéfinie se poursuit, à travers différents balayages de hauteur et de spectre, jusqu’à un point où sont libérées les composantes aigues et graves des structures harmoniques initiales3.
15Le titre de Contours* (1982) fait référence à des études psycho-acoustiques — de Dowling notamment — qui indiquent qu’on perçoit comme similaires des mélodies ayant le même « contour », c’est à dire la même succession de montées et descentes, indépendamment de la grandeur des intervalles. La pièce se développe à partir d’un motif au contour très simple, et les transformations de ce motif par dilatation ou contraction sont d’abord parfaitement lisibles ; puis elles sont graduellement oblitérées par le jeu des fusions et des superpositions. Le motif initial définit deux pôles harmoniques, do et fa dièze : on passe naturellement de do à fa dièze par des harmoniques d’ordre élevé, introduits graduellement en distordant le son suivant la technique développée à Marseille par Daniel Arfib. Le même contour est repris sur des sons inharmoniques plus ou moins percussifs, fluides et cursifs. La fin de la pièce est un développement sonore en harmoniques qui amplifie les données initiales, faisant apparaître des sons synthétiques quasi-vocaux.
16Electron-Positron (1989) est une brève composition sonore pour bande 8 pistes, réalisée au LMA, CNRS Marseille, pour l’acte inaugural du LEP, le grand « collisioneur électron-positron » du CERN, près de Genève. La composition évoque de façon métaphorique l’activité de recherche effectuée au CERN, en particulier la mise en route et l’accélération des faisceaux d’électrons et de positrons qui tournent en sens inverse. Cette illustration numérique, réalisée à Marseille avec l’aide de Daniel Arfib et de Pierre Dutilleux, fait appel à des techniques de pointe : synthèse par ordinateur de sons paradoxaux — montant sans fin, accélérant sans fin, montant et descendant à la fois ; illusions de mouvement du son dans l’espace, utilisant les méthodes de Chowning mises en œuvre aussi bien en temps différé qu’en temps réel ; ralentissement considérable de la parole sans transposition en la décomposant en « grains » de son (en « paquets d’onde » de Gabor).
Ordinateur et instruments : Rencontres du troisième type
17Le Groupe de Musique Expérimentale de Marseille a organisé en décembre 1989 un Congrès international sur le dialogue des instruments et de l’électronique — y participaient entre autres Jon Appleton, Jean-Baptiste Barrière, Georges Bœuf, Claude Cadoz, Michel Decoust, Thomas Kessler, François-Bernard Mâche, Max Mathews, Hermann Sabbe, Denis Smalley, Michel Waisviz. Les actes de ce colloque devraient être publiés courant 1990 : ils font le point sur les musiques « mixtes », un genre important puisqu’il fait le pont entre pratiques électro-acoustiques et instrumentales. A mon sens, l’ordinateur offre ici des possibilités très séduisantes. J’ai réalisé de nombreuses pièces associant instrumentistes vivants et sons synthétisés par ordinateur, par exemple Dialogues, Inharmonique, Profils, Passages. La ductilité et la finesse de contrôle qu’autorise la synthèse permettent d’instaurer des relations précises avec les sons instrumentaux, évitant le sentiment d’arbitraire qui naît souvent de l’association de sons acoustiques et électro-acoustiques. On peut ainsi mettre en scène des rencontres intimes entre des mondes sonores intrinsèquement différents. Les instruments et les sons de synthèse peuvent converger ou diverger, se prolonger, nouer des relations harmoniques ou contrapuntiques.
18Ainsi Dialogues* (1975) associe quatre instrumentistes (flûte, clarinette, piano, percussion) à la bande magnétique réalisée par ordinateur au Centre Universitaire de Marseille-Luminy. La pièce tente d’établir des liens étroits entre monde sonore instrumental et synthétique. Les motifs sur lesquels la pièce est construite sont d’abord exposés par des sons synthétiques simili-instrumentaux : de ce discours d’instruments illusoires émergent insidieusement les sons des instruments réels. Instruments et bande dialoguent alors en se fondant, en se répondant, en s’opposant, en se prolongeant. La bande incite à un moment le percussioniste à répondre à ses propositions ; plus tard, elle tisse des textures sonores formant des nuages harmoniques issus des accords instrumentaux. L’ordinateur manipule les motifs qui formaient initialement des séries bien caractérisées : ces motifs se voient brouillés par transformation ou accumulation (par exemple en présentant simultanément les mêmes motifs à trois tempos métronomiques différents), et il y a dissolution graduelle de la structure sérielle, noyée dans une harmonie résultante.
19Inharmonique*, réalisé à l’IRCAM en 1977 et dédié à la soprano Irène Jarsky, théâtralise la relation entre la chanteuse, présente sur scène, et la bande, présence sonore de l’absence, de l’immatériel. Et la synthèse par ordinateur en temps différé suppose des médiations techniques et logicielles complexes, alors que la voix est l’instrument le plus proche du corps. Pas de texte, mais des métaphores d’émergence, de naissance, de vie, de souvenir. La pièce commence sur des bandes de bruit mouvantes, liquides, d’où sortent des sons purs. Ces sons s’associent en nappes inharmoniques de plus en plus chargées. La voix, qui apparaît d’abord en filigrane, finit par percer l’écran des sons artificiels : elle brode alors sur un la dont la bande déploie les harmoniques. L’ambitus s’accroît. La bande introduit des cloches imaginaires, composées comme des accords : les relations de consonance entre ces sons inharmoniques ne sont pas fixes, mais dépendent de leur composition interne, de leur structure harmonique. Ces cloches aux hauteurs ambiguës se diffractent ensuite en textures fluides — par une transformation du profil temporel des composantes, sans que leurs fréquences ne soient modifiées. L’intervention de la voix est de plus en plus raréfiée et dramatique. C’est finalement la bande qui présente une mélodie vocale éparpillée dans l’espace — un effet réalisé à l’aide du traitement par ordinateur, alors que le souffle de la chanteuse se perd dans le reflux de nappes bruiteuses4.
20Moments newtoniens* (1977) est une pièce « à programme » : pour le deux cent cinquantième anniversaire de la mort de Newton, Radio-France avait commandé des œuvres devant faire allusion à ses travaux. Le premier « moment » renvoie au calcul différentiel élaboré par Newton, en mettant en scène les rencontres de courbes mélodiques « tangentes », qui se touchent en un seul point avant de diverger. Le second moment évoque l’analyse spectrale de la lumière blanche, dispersée par le prisme en couleurs composantes : la bande révèle l’arc en ciel des fréquences composant les sons instrumentaux. Comme Newton l’a montré pour la lumière, les poids respectifs attribués aux diverses composantes influent sur la couleur (Klangfarbe, la couleur du son : le timbre). Le troisième mouvement fait référence aux travaux de Newton sur la dynamique. Des sons tournent sur eux-mêmes, mais leur rotation, graduellement ralentie, est peu à peu perçue comme une chute de hauteur — allusion à l’unicité découverte par Newton de la gravitation et de la pesanteur. Les sons tournants évoquent des spirales ; ils descendent la gamme tout en devenant plus aigus, ils accélèrent et ralentissent à la fois.
21Dans Passages*, pour flûte et bande synthétisée par ordinateur, l’esprit de la relation entre instrument et ordinateur se rapproche de celui de la musique de chambre plutôt que de celui du concerto. Le titre fait allusion aux différents paysages sonores de la bande : la flûte passe de l’un à l’autre. Ainsi se succèdent des bruits glissants, dont les distributions spectrales imitent celles qu’on trouve dans les phénomènes de turbulence ; des contours fluides et bruiteux, dont la hauteur devient de plus en plus claire ; des balayages harmoniques ; des vibratos se transformant insidieusement en trilles ; des bribes sérielles, comme des vestiges ; des battues rythmiques semblant préparer une parade ; des flux harmoniques rebondissants, qui finissent par se figer en cloches imaginaires ; des sons anonymes prenant insidieusement une couleur vocale. Face à ce décor changeant, la flûte reste elle-même, mais elle varie ses modes, ses humeurs, pour trancher sur le paysage sonore ou pour s’y fondre. Passages est, si l’on veut, une aventure de l’identité. La flûte a une identité claire, même lorsque le flûtiste joue des sons bruités ou des « whistle tones » (harmoniques obtenus à partir de bruits de biseau). La bande tente par moment d’emprunter cette identité en se rapprochant du son de l’instrument : mais les sons synthétiques sont par nature plus ductiles, leur identité moins robuste, plus labile. Vers la fin de la pièce, l’identité vacille : le flûtiste chante en même temps qu’il joue, alors qu’un vibrato irrégulier module les sons synthétiques pour les faire ressembler à une voix chantée et leur conférer une présence illusoire mais néanmoins frappante — j’ai aussi joué de cette ambiguïté dans L’autre face (1983), où la soprano soliste dialogue avec des simulations de voix chantées, qui suggèrent une identité et qui ne sont pourtant les voix de personne5.
Synthèse et traitement de sons instrumentaux : Songes*
22Songes (1979) a été réalisé à l’IRCAM avec une variante du programme MUSIC V. Le programme originel, conçu par Max Mathews (cf. Mathews et al., 1969) a été étendu par John Gardner et Jean-Louis Richer en sorte qu’il puisse traiter des sons numérisés aussi bien que synthétiser des sons. La version originelle de Songes est pour bande quatre pistes ; elle reprend certains matériaux sonores de Mirages, une pièce pour 16 instruments et bande commandée par le Festival de Donaueschingen (1978). La structuration du matériau sonore a tiré parti des programmes de David Wessel pour représenter les espaces de timbre : ces programmes fournissent des représentations qui sont de véritables cartes de navigation, indiquant les distances, suggérant des trajectoires caractéristiques par leur continuité ou leur discontinuité.
23Le titre suggère le caractère onirique d’aventures situées sur une autre scène — aventures issues d’un monde absent, imaginaire. L’identité d’êtres sonores qui échappent parfois aux contraintes matérielles se dissout dans la continuité des textures, dans le flux des déformations, des déplacements, des liquéfactions. Mais peut-on distinguer songe et veille, illusion et réalité ? Tout ne passe-t-il pas par notre perception, notre conscience ?
24Au début de la pièce, l’ordinateur a servi à assembler, superposer, tuiler cinq motifs — ces motifs, durant chacun de 2 à 5 secondes, ont été enregistrés séparément par 10 instrumentistes de l’Ensemble Intercontemporain. Outre les superpositions, les sons instrumentaux ont subi des modifications régissant en particulier des effets d’espace. Les structures harmoniques de ces motifs, répétés de façon quasi obsessionnelle, sont reprises dans un tissu harmonique aigu (20" à 50"), puis dans des sons synthétiques inharmoniques (1’35 à 5’40). Les composantes de ces sons peuvent, suivant leur profil temporel, fusionner en simulacres de cloches (1’40 ou 5’10) ou se dissocier en textures fluides (3’30 à 4’50) : en contrôlant ce profil, le compositeur peut favoriser une écoute synthétique, regroupant les sons élémentaires en objets bien identifiés, ou une écoute analytique, dispersant les éléments comme le prisme disperse les couleurs composant la lumière blanche. Les sons inharmoniques se fondent l’un dans l’autre puis s’accumulent en accords-gigogne, qui reproduisent entre eux les relations de fréquence existant entre leurs composantes (5’35 à 6’40). Alors que le début de la pièce était confiné au registre medium, cette accumulation donne lieu à un crescendo remplissant tout l’espace des fréquences, du grave à l’aigu. La longue coda (6’30 à 9’) ne conserve que les fréquences extrêmes. Le calme revient avec une longue pédale de sons graves, évoquant des relations dominante-tonique, animée de vibrations internes provoquées par des retards temporels variables (comme des échos répercutés sur une paroi qui se déplacerait). Au-dessus du grave voyagent des sons aigus largement modulés en fréquence, suivant des courbes souples définies mathématiquement et qui tentent de concilier degrés d’une échelle et glissements continus. L’illusion d’espace recourt aux techniques développées par John Chowning : la source sonore paraît s’éloigner si elle se perd dans la réverbération, et les glissements de fréquence suggèrent un effet Döppler Les sons aigus évoquent des oiseaux imaginaires : en fait, il s’agit de modulations de fréquence régies par des courbes mathématiques, sommes de fonctions trigonométriques, qui donnent l’impression de fluctuer souplement entre continu et discontinu6.
Sud* : une musique numérique hybride
25Sud (1985) met en scène la confrontation de matériaux sonores naturels et synthétiques. J’en donne ici une description assez détaillée, car je trouve problématique cette confrontation d’éléments aux caractéristiques bien différentes. Au début de la pièce, les deux types de matériaux s’opposent : ainsi les sons de la mer n’ont pas de hauteur déterminée, alors que les sons synthétiques correspondent à une échelle modale majeure-mineure non tempérée ; mais les transformations appliquées dans le courant de la pièce aux matériaux de départ vont conduire à une hybridation et une interpénétration du naturel et du synthétique : les flux dynamiques des sons naturels vont moduler les textures synthétiques, et les échelles synthétiques vont colorer les sons naturels.
26Sud part d’un matériau sonore hybride comprenant des sons enregistrés et des sons de synthèse. La plupart des enregistrements ont été réalisés dans le massif des Calanques, au sud de Marseille : sons de mer, d’oiseaux, d’insectes... Ce matériau sonore a ensuite été traité par ordinateur au Groupe de Recherche Musicale de l’INA : ainsi a-t-il proliféré, les transformations effectuées ayant donné lieu à de multiples fragments sonores. Ces fragments, ou plutôt une partie d’entre eux, ont été montés et mixés numériquement, pour aboutir à une bande quatre pistes d’une durée de 24 minutes. Au début, et par instants, la pièce se présente comme une « phonographie », suivant le terme de François-Bernard Mâche : elle veut donner à entendre, dans une perspective choisie, certains paysages sonores du massif des Calanques. D’autres sons viennent d’ailleurs. Les chants d’oiseaux ne sont pas tous méditerranéens : certains viennent du parc Jurong de Singapour. Présentés sous forme tranformée, ils évoquent la touffeur de l’été — Sud... Et quant aux sons de synthèse, réalisés à Marseille, ils viennent de nulle part, ils ne sont pas la trace acoustique d’un monde réel. Lors de mon travail, j’ai songé ici ou là à Luc Ferrari, à Knut Victor qui a « phonographié » les insectes du Lubéron, à Michel Redolfi, musicien des vagues, à Georges Bœuf et ses abysses, aux oiseaux chanteurs de François Bayle.
27Dans son déroulement, la pièce évolue vers l’imbrication de plus en plus étroite des matériaux sonores enregistrés et synthétiques : les transformations sonores permettent de rapprocher ces deux mondes bien différents et de favoriser des rencontres intimes. Une échelle de hauteur (sol — si — mi — fa dièze — sol dièze), exposée d’abord par des sons de synthèse, va colorer de plus en plus les divers sons d’origine naturelle : elle devient dans la dernière partie une véritable grille harmonique qu’oiseaux ou vagues font résonner, à la façon d’une harpe éolienne. Je suis parti d’un assez petit nombre de séquences sonores : enregistrement de mer, d’insectes, d’oiseaux, de carillons de bois et de métal, de « gestes » brefs joués au piano ou synthétisés à l’ordinateur. Je les ai multipliées en leur appliquant diverses opérations : moduler, filtrer, colorer, réverbérer, spatialiser, mixer, croiser. Cézanne voulait « unir des courbes de femmes à des épaules de collines » : de même la synthèse croisée permet de travailler « dans l’os même de la nature » (Michaux), de produire des hybrides, des chimères — d’oiseaux et de métal, de mer et de bois... J’y ai eu recours surtout pour transposer des profils, des flux d’énergie. Ainsi la pulsion d’enregistrements de mer est par endroits appliquée à d’autres sons ; ailleurs, les dynamiques de déferlements, de vagues sonores, ne sont pas issues de la mer, elles résultent de l’agencement, du modelage, de la sculpture des sons.
28J’ai enregistré la plupart des sons dans le massif des Calanques : flux et reflux de la mer par temps calme — les profils qui ouvrent la pièce jouent le rôle d’un motif qui imprimera sa forme au début et à la fin de la troisième section ; clapotis coloré par des cavités rocheuses ; rugissement d’une tempête de mistral ; sons lointains de voix et d’oiseaux ; crissements d’insectes et craquements de graines dans la chaleur ; stridulations nocturnes de grillons... J’ai effectué aussi d’autres enregistrements : une note de violoncelle, des entrechocs de tubes de bois ou de pièces de métal suspendus (wood chime, metal chime), une séquence rapide de piano. J’ai recouru aussi à un enregistrement d’oiseaux tropicaux et équatoriaux, et j’ai utilisé les sons synthétiques dont je parle dans le paragraphe suivant. Certains paysages sonores ont été présentés sans modification, comme une « phonographie » (la mer, I, 0 à 33"), ou avec le simple ajout de sons synthétiques (les sons d’insectes, I, 5’45 à 6’ ; I, 8’26 à 8’50). Certains ont été spatialisés (les oiseaux, I, 33" à 1’38). Mais les fragments sonores qui ont subi plusieurs générations étaient assez brefs (entre 1 et 20") et en petit nombre (une quinzaine).
29J’ai aussi synthétisé quelques sons à l’aide du programme MUSIC V, mis en œuvre sur un mini-ordinateur Télémécanique T1600 à Marseille (Laboratoire de Mécanique et d’Acoustique du CNRS et Faculté des Sciences de Luminy). Bien que décrits par des courbes ou des programmes, ils sont pensés comme des gestes. L’échelle de hauteur est introduite par des « nuages harmoniques », sortes de volutes ou d’arpèges formés d’harmoniques des notes sol, si, mi, fa dièze, sol dièze (I, 2’50 à 4’). Les harmoniques réapparaissent comme une embellie vers la fin du second mouvement (II, 6’43 à 7’23) et comme une récapitulation vers la fin du troisième mouvement (III, 6’43 à 7’21). Il y a aussi d’amples arpèges soulignant les degrés de l’échelle (III, 3’14 à 3’30 et 4’21) : ces arpèges ont été décrits à l’ordinateur comme des profils, des contours continus montant ou descendant, et MUSIC V les a animés par de légères déviations aléatoires puis quantifiés aux fréquences de l’échelle, suivant une technique utilisée par Max Mathews, James Tenney, Gerald Strang. L’ordinateur a aussi engendré des sons percussifs, modifiés ultérieurement par traitement numérique (cf. ci-dessous, 4). Enfin de grandes lignes aiguës, spatialisées et largement modulées en fréquence, donnent des sons vibrants relevant du « genre oiseau » (I, 5’50, 6’29, 8’50 ; III, 56, 4’41, 5’45) : je les ai synthétisées à l’aide de MUSIC V, en décrivant par synthèse de Fourier les enveloppes de fréquence (et non la forme d’onde) — en ajoutant, par exemple, les harmoniques d’ordre 0 (fréquence centrale), 9, 17, 32 : cela permet d’obtenir des courbes à la fois souples et accidentées.
30Ces transformations des sons ont été réalisées au Groupe de Recherches Musicales, où Benedict Mailliard et Yann Geslin ont développé une puissante batterie de programmes. Il est intéressant de constater qu’au GRM, le développement de l’informatique musicale n’a pas altéré les options esthétiques : dans la lancée de la musique concrète, il était naturel que fussent développés des outils numériques pour le traitement plutôt que la synthèse du son7. Le fichier d’échantillons sonores joue le même rôle que le bobineau de bande dans un studio analogique. Chaque programme réalise une transformation d’un type déterminé sur un ou plusieurs sons numérisés, par exemple mixage, filtrage, réverbération, spatialisation. Les caractéristiques de ces transformations sont stipulées par l’utilisateur à la console. Les transformations se font en temps différé, et l’on peut écouter le son résultant avant de le soumettre à un autre traitement.
31Les méthodes de travail de la musique sur bande se voient ici prolongées dans le type de traitement informatique disponible. Ainsi plusieurs de ces transformations utilisent-elles le programme MUSIC V, plus connu comme programme de synthèse, bien que Max Mathews ait prévu le traitement des sons numérisés (d’ailleurs disponible dans la version de MUSIC V développée à l’IRCAM par John Gardner et Jean-Louis Richer : des pièces comme Arcus de York Höller, Vivos voco de Jonathan Harvey et mes Mirages et Songes en ont tiré parti). Mais l’utilisateur des programmes de Mailliard n’a pas à connaître le langage d’entrée de MUSIC V, puisqu’une interface conversationnelle l’interroge sur les options à préciser une fois qu’il a défini le type de transformation qu’il souhaite : les transformations sont accomplies une par une, et la combinatoire n’en est réalisable que « manuellement ». Voici les principales transformations auxquelles j’ai eu recours dans Sud.
321. Montage temporel. Le programme BRAGE (pour « brassage ») permet de prélever des fragments d’un son et de les redistribuer dans le temps. Je m’en suis servi pour faire « bégayer » le piano (I, 1’41 à 2’22), mais aussi pour « recomposer » des chants d’oiseaux — pour développer un motif de façon d’abord pointilliste, puis de plus en plus animé, jusqu’à un passage tuilé, en strette (I, 1’42 à 2’47). C’est également BRAGE qui a servi pour des développements compositionnels à partir de sons de carillons de bois (I, 3’20 à 4’36).
332. Coloration. Plusieurs siècles avant Jésus-Christ, on avait remarqué que le son des vagues, dans un théâtre dont les gradins faisaient face à la mer, était affecté d’une coloration très particulière. Le phénomène est dû au mélange des réflections sonores sur les gradins successifs : le son est mélangé à lui-même après un décalage temporel. On peut comprendre ce qui se passe en prenant l’exemple d’un retard de 2 millisecondes : pour les sinusoïdes de fréquences 500 Hz, 1000 Hz, 1500 Hz, etc, ce retard correspond à un nombre entier de périodes, et ces composantes seront renforcées. Au contraire les sinusoïdes de fréquences 250 Hz, 750 Hz, 1250 Hz, etc, se trouvent en opposition de phase avec leur copie décalée de 2 millisecondes : ces composantes seront annulées. On peut accroître la coloration en introduisant davantage de composantes décalées dans le temps. J’ai utilisé ce procédé pour introduire une hauteur dans les bruits de vagues : un sol dièze y apparaît de façon de plus en plus perceptible — à partir de simples mixages du même son, décalé par rapport à lui-même de multiples de 2,41 millisecondes — la période correspondant à une fréquence de 415 Hz (III, 0 à 39").
343. Phasing. Je désigne ainsi un effet obtenu en superposant à un son des copies de ce son avec un léger décalage de fréquence. Considérons un son périodique comportant dix harmoniques de fréquences f, 2f, 3f,..., 10f. Si nous le superposons à un son semblable de fréquence f + 0,1 Hz, il va se produire des battements : la somme de deux sinusoïdes de fréquence f et f + әf se comporte comme une sinusoïde de fréquence f + әf/2 dont l’amplitude oscille entre 0 et une amplitude maximum әf fois par seconde. Ici la composante de fréquence f + 0,05 Hz verra son amplitude croître puis s’annuler en 10 secondes, mais ce cycle d’amplitude ne durera que 5 secondes (10/2) pour la composante de fréquence voisine de 2f, 3,33 pour la composante de fréquence voisine de 3f,..., et 1 (10/10) pour la composante de fréquence voisine de 10f. Les harmoniques seront donc modulés à des cadences différentes, les harmoniques d’ordre élevé apparaissant et disparaissant plus souvent. On crée de cette façon un chant d’harmoniques qui sera d’autant plus lisible qu’on ajoute plus de composantes décalées en fréquence 8.J’ai de cette façon strié des sons de violoncelle (III, 39", l’24). Avec des sons non périodiques — des rugissements de mer un jour de tempête — on obtient un ample glissando descendant, ce qui n’est pas très intuitif : la perte de cohérence est plus rapide pour les composantes aiguës que pour les composantes graves. Dans tout le deuxième mouvement, qui symbolise une tempête, j’ai recouru à cette transformation pour créer de puissants effets dynamiques de mer ou de vent.
354. Autres mixages : accumulation, mise en échelle. Les deux procédés décrits ci-dessus tirent parti de la précision que le traitement numérique apporte au mixage. Il est facile de lire un fichier à une vitesse différente, donc d’effectuer des changements de fréquence (accompagnés de changements de vitesse). Pour Sud, j’ai choisi une échelle de hauteur — correspondant aux notes sol — si — mi — fa dièze — sol dièze — qui est exposée d’abord par des nuages harmoniques de sons synthétiques (première section, 2’50 à 3’50) : cette échelle va peu à peu « fibrer » certains sons naturels. J’ai ainsi composé des accords ou des textures à partir de copies transposées d’un même fichier, les rapports de transposition se conformant à l’échelle de hauteur. En particulier, partant d’un son synthétique de type percussif, j’ai accumulé des transpositions pour créer des trames rappelant le flux de vagues — trames dynamiques, dont l’harmonie sous-jacente correspond au majeur-mineur impliqué par l’échelle. Ces trames jouent un rôle important dans la pièce : par exemple dans la deuxième section (38" à 1’15, 3’50 à 5’07) ou vers la fin de la troisième (6’à 6’30). J’ai aussi recouru au changement de fréquence pour accorder des sons naturels — comme le fa dièze des grillons nocturnes — aux degrés de l’échelle choisie : ainsi s’affirme, vers la fin de la première section (I, 9’10), le rapprochement entre sons naturels et sons synthétiques.
365. Filtrage résonant. J’ai surtout utilisé une batterie de filtres résonants : chacun peut être accordé séparément à la fréquence voulue, et on peut aussi spécifier la surtension — plus elle est forte, plus le filtre est sélectif, et plus il résonne longtemps à la suite d’une excitation. On peut prescrire un choix aléatoire de fréquences d’accord réparties uniformément ou non dans une certaine région de fréquence : c’est de cette façon que ce banc de filtres a été utilisé le plus souvent. Je m’en suis servi quant à moi pour imposer une grille harmonique correspondant à l’échelle que j’ai définie ci-dessus, prolongée vers le grave et l’aigu en alternant sol dièze et sol naturel (sol, si, mi, fa dièze, sol dièze, si, mi, fa dièze, sol, si...) : j’utilise alors vingt-cinq filtres résonants en parallèle. Si la surtension est forte, les filtres strient le son, donnant l’impression d’une harpe accordée suivant l’échelle et qui résonne à l’excitation constituée par le son non filtré. Une surtension moins forte laisse subsister davantage les caractéristiques du son originel. Dans la troisième section, divers sons naturels et même synthétiques vont exciter cette grille harmonique : les vagues sont cannelées, tout en gardant leurs profils temporels, un peu amollis par la réponse des filtres (III, 3’49, 7’23). Des croassements d’oiseaux sont disposés en regard de la réponse résonante (III, 3’28) — on peut même faire que l’effet précède la cause, en retardant l’excitation. Et un chant d’oiseau est transformé par le filtrage en un véritable raga — l’échelle est d’ailleurs soulignée par des arpèges de sons de synthèse (III, 4’06 à 6’19).
376. Modulation. La modulation en anneau d’un son par un autre se réduit à une simple multiplication numérique des échantillons correspondant. J’ai ainsi modulé des sons de piano par des sinusoïdes, introduisant de nouvelles composantes de fréquence. Le résultat a été soumis au filtrage résonnant décrit ci-dessus. Les sons de piano originels sont alors gauchis par l’échelle choisie (III, 2’16 à 2’37).
387. Synthèse croisée. Divers types de modulation permettent de combiner deux sons pour obtenir un troisième son ayant certaines caractéristiques de chacun des deux. J’ai utilisé à cet effet des programmes de codage prédictif, qui permettent d’analyser un son en deux parties qui correspondent assez bien à une excitation — aspect « en temps » — et à une réponse — aspect « hors temps ». On peut alors effectuer des synthèses croisées combinant l’excitation d’un son et la réponse d’un autre, ce qui donne lieu à d’étranges hybrides, voire de véritables chimères — on entend fugitivement dans Sud des oiseaux de métal (III, 2’04, 5’24). Mais j’ai surtout voulu imprimer à la matière d’un son les profils dynamiques d’un autre son. De ce point de vue, la modulation d’amplitude — multiplier un son par l’enveloppe d’un autre son — donne souvent des résultats très décevants, alors que la synthèse croisée est bien plus convaincante. Ainsi j’ai obtenu de véritables vagues de clavecin (III, 1’43), de carillons de bois ou de métal, en croisant ces sons avec des enregistrements de mer. En multipliant les modulations, on arrive à brouiller l’origine des sons et à les « noircir » — j’y ai eu recours pour la fin « catastrophe » de la seconde section.
398. Spatialisation et réverbération. Je ne fais que mentionner ici ces transformations, utilisées dans la pièce (I, 33", 4’10).
40Arbre généalogique et mise en temps. Ainsi le noyau de sons de départ — au nombre d’une quinzaine-a été soumis à des transformations numériques, spécialement celles décrites de 1 à 8 : il en est résulté d’autres sons qui ont eux-mêmes été soumis à transformation, et ainsi de suite. Certains sons de la première génération ont été utilisés dans la pièce ; d’autres ont subi plusieurs générations de transformations — une demi-douzaine ou plus. J’ai représenté la prolifération des sons sur un « arbre généalogique » — qui fait penser à une toile d’araignée ou à un rhizome plutôt qu’à une arborescence. (Chaque son est représenté par un nom, celui du fichier correspondant). On peut y repérer les générations successives de sons, transformés par des processus tels que mixage, filtrage résonnant, synthèse croisée, représentés par des symboles mnémoniques. Tout cet engendrement de matériau sonore constitue si l’on veut une étape de « précomposition ». L’étape finale — cruciale, bien entendu — est celle du montage, de la « mise en temps ». Pour des raisons pratiques d’encombrement de mémoire, le montage et le mixage ont été faits de façon analogique au GRM. La version finale est quadriphonique. J’ai bien sûr eu recours à des schémas de mixage, repérages chronométriques qui ressemblent plus que les fig. 1 et 2 à des partitions — et qui peuvent d’ailleurs servir de partitions de diffusion, même si dans l’état actuel la représentation des sons (par leur nom de code et un schéma vaguement analogique) reste quelque peu cryptique. Je ne parlerai guère de la composition : je préfère que la pièce parle pour elle-même. Je dirai simplement que l’agencement de ces sons multiples met en jeu plusieurs niveaux de rythme et, peut-on dire, une logique de flux. Si j’avais dès le départ une idée de la forme, cette idée a un peu évolué au cours de la constitution du matériau. Les matériaux enregistrés et synthétiques, d’abord bien séparés, se rapprochent et s’entremêlent de plus en plus. La pièce est en trois sections, durant respectivement dix, six et huit minutes : elle est, si l’on veut, naturaliste, descriptive, voire narrative, mais de façon métaphorique.
41Les sons de Sud sont souvent très chargés spectralement, et la diffusion requiert de l’espace et de l’aération. L’Acousmonium du GRM, où la pièce a été crée en juin 1985, lors du cycle acousmatique du GRM, permet évidemment une projection sonore exceptionnellement riche, détaillée, aérée. En revanche, j’ai préféré diffuser Songes plutôt que Sud au château de Montélimar, dans le cadre du Festival de Romans 1985. Les amples dimensions du Schœnberg Hall, au Conservatoire royal de La Haye, ont permis de déployer la pièce lors de la Conférence 1986 de musique par ordinateur. Mais Sud respire bien en plein air : elle fut présentée au Jardin des vestiges, lieu de l’ancien port phocéen, par le Groupe de Musique Expérimentale de Marseille, et à l’auditorium Frost par le CCRMA de l’Université Stanford : dans cet immense espace circulaire entouré d’arbres, quatre groupes de haut-parleurs Meyer ont suffi pour donner aux sons une ubiquité et une définition étonnante. Il ne faut jamais oublier que la diffusion d’une musique sur bande peut l’animer, la faire vivre, ou l’étouffer, la dénaturer complètement.
Transformations numériques des sons instrumentaux
42J’ai réalisé récemment deux pièces dédiés à des instrumentistes hors du commun : à Daniel Kientzy, Voilements*, pour saxophone et bande (1987), et à Michel Portal, Attracteurs étranges, pour clarinette et bande (1988). Dans chacune de ces pièces, j’ai demandé aux instrumentistes d’enregistrer des fragments musicaux écrits, exploitant en particulier de nouveaux modes de jeu qu’ils proposaient, puis j’ai procédé à des transformations numériques de ces enregistrements, tirant parti du processeur audionumérique SYTER, qui peut réaliser nombre de transformations en temps réel. Pourtant les instrumentistes dialoguent avec une bande, qui impose bien sûr sa tyrannie chronométrique : mais alors l’exécution des œuvres ne dépend pas de la disponibilité problématique du processeur. D’autre part, les bandes comportent aussi des sons résultant de synthèses ou de transformations numériques effectuées hors temps réel. Certaines synthèses faites en temps différé sont animées par des inflexions temporelles déterminées à l’avance par des gestes instrumentaux, ce qui donne une conduite plus souple et plus musicale. Les transformations sont de divers types : échos avec transposition et décalage temporel, réverbération, filtrage résonant.
43Les « scénarios » sont différents pour les deux pièces. Le titre Voilements fait allusion au rôle de la bande : d’abord double, écho du soliste, le son venant des haut-parleurs démultiplie son jeu, mais graduellement il l’altère, le gauchit, le voile, comme un disque rayé, une roue qui ne tourne plus rond. D’étranges transformations prennent place : l’échelle des hauteurs se détempère, les volutes se ferment sur elles-mêmes, comme en spirale. C’est alors un autre type de rapport, plus pacifique et distant, qui s’instaure entre une bande plus multiple et lointaine, faisant appel à des sons de synthèse, et les différents modes de jeu du soliste. Attracteurs étranges évoque les figures du chaos. Les attracteurs sont les états vers lesquels évoluent les systèmes : un attracteur peut être un point d’équilibre, de repos, vers lequel le système tend à revenir ; ou un cycle parcouru périodiquement ; ou encore un « attracteur étrange », délocalisé et donnant lieu à des comportements turbulents ou chaotiques imprévisibles, puisqu’un changement imperceptible finit par bouleverser le devenir ultérieur. La pièce est articulée en plusieurs mouvements. Les motifs tournent d’abord autour de pôles de hauteur fixes, puis de cycles. Puis le son même de la clarinette devient de plus en plus turbulent. Les motifs attracteurs sont ajoutés à eux-mêmes après ralentissement ou accélération : c’est l’amorce d’une structure fractale, ayant la même allure à différentes échelles, comme dans les attracteurs étranges responsables des comportements chaotiques.
Interactions en temps réel : Huit esquisses en duo pour un pianiste
44Il s’agit sans doute du premier Duo pour un seul pianiste : la seconde partie est jouée, sur le même piano — un piano acoustique, avec touches, feutres et marteaux — par un ordinateur qui suit le jeu du pianiste. Il faut pout cela un piano spécial — ici un Yamaha « Disklavier » — équipé d’entrées et de sorties MIDI. Sur ce piano, chaque note peut être jouée du clavier, mais aussi déclenchée par des signaux électriques qui commandent des moteurs pouvant abaisser ou relâcher les touches. Chaque fois qu’une touche est jouée, elle envoie un signal indiquant quand et à quelle intensité. Les signaux suivent la norme MIDI utilisée pour les synthétiseurs. Un ordinateur Macintosh reçoit cette information et renvoie les signaux appropriés pour faire jouer le piano. Le programme établi pour l’ordinateur détermine de quelle façon la partie de l’ordinateur dépend de ce que joue le pianiste. Ce mode d’interaction est nouveau : le pianiste est suivi à la trace par un double informatique qui joue, sur le même instrument, un texte musical qui est une fonction programmée du jeu du pianiste. Plus de sons électro-acoustiques, mais l’ordinateur est essentiel pour instaurer telle ou telle relation entre le pianiste et son double9.
45Pour mettre en œuvre le processus, il a fallu résoudre deux problèmes. Le premier est analogue au « feedback » qui est responsable de l’accrochage — de l’effet Larsen — qui peut survenir dans un système d’amplification. Pour le faire comprendre, supposons que le programme stipule à l’ordinateur d’ajouter à chaque note jouée par le pianiste une note située un ton plus haut avec un quart de seconde de retard. L’ordinateur, à « l’écoute » des notes jouées, va réagir quand le pianiste va jouer un do : il va envoyer un signal MIDI commandant au piano de jouer le ré un ton plus haut et un quart de seconde plus tard. Mais il va également réagir à ce ré comme si le pianiste l’avait joué, et commander la frappe d’un mi, et ainsi de suite, si bien qu’au lieu d’une note ajoutée, on obtiendra une gamme par tons à raison de quatre notes par seconde. Il faut donc pouvoir inhiber les réactions de l’ordinateur aux notes qu’il a lui-même commandées, et qu’il doit donc discerner des notes jouées par le pianiste. Cela nécessite un programme ayant de la mémoire — celles des notes jouées par l’ordinateur — et une certaine intelligence : en effet le problème se complique du fait qu’après la commande MIDI, il faut un certain temps au marteau pour atteindre la corde, et ce temps varie avec l’intensité du jeu, allant de quelques vingt-cinq millisecondes pour les notes fortissimo à plus de deux cents millisecondes pour les notes pianissimo. Ce sont d’ailleurs des données qui varient d’un piano à un autre : aussi le programme écrit par Scott Van Duyne commence-t-il par mesurer les temps de transit correspondant aux différentes intensités. Le second problème est lié à cette variation de la durée du parcours du marteau avec l’intensité. Si des commandes MIDI prescrivent une suite de notes également espacées dans le temps mais de moins en moins fortes, le piano jouera cette suite en donnant l’impression de ralentir. On peut compenser cette distorsion temporelle en tenant compte des données mesurées préalablement : mais il faut bien voir qu’une telle compensation empêche une réaction en véritable « temps réel ».
46En tout cas, ces problèmes ont été résolus autant que faire se peut grâce aux programmes écrits par Scott Van Duyne dans le langage MAX : il m’a dès lors été possible d’explorer divers modes de relation temps réel entre le pianiste et l’ordinateur. J’ai articulé ma pièce en huit esquisses dont chacune met en œuvre un type simple de relation : je les décris ci-après. Il s’agit là de relations élémentaires : on pourrait bien sûr les combiner, ou faire intervenir des possibilités d’improvisation ou de variations stochastiques. Mais chaque esquisse est démonstrative et gratifiante à jouer : la sensibilité de la relation donne l’impression de jouer non pas avec une machine, mais avec un véritable partenaire.
47Double. Le pianiste joue seul, puis à la reprise l’ordinateur ajoute des ornements. Ces ornements pré-enregistrés interviennent quand le pianiste joue certaines notes ; leur tempo peut être influencé par le tempo du pianiste.
48Miroirs. A chaque note jouée par le pianiste répond la note symétrique par rapport à une certaine note du clavier — un procédé utilisé dans la seconde Variation op. 27 de Webern, citée au début (et aussi à la fin, à l’écrevisse). Les centres de symétrie et les retards de réponse sont variés au cours de la pièce.
49Extensions. Aux arpèges joués par le pianiste, l’ordinateur ajoute des arpèges transposés.
50Fractals. A chaque note jouée, l’ordinateur ajoute cinq notes espacées d’une octave altérée. Alors les mélodies jouées par le pianiste sont étrangement distordues : une montée d’une octave est perçue comme une descente d’un demi-ton.
51Agrandissements. Comme dans Extensions, l’ordinateur ajoute des notes, mais les intervalles sont non pas transposés, mais agrandis dans des rapports allant de 1,3 à 2,7, ce qui agrandit les intervalles mélodiques et harmoniques.
52Métronomes. Au début, l’ordinateur répond en canon, sur des hauteurs transposées et à des tempos plus rapides. Puis il joue simultanément plusieurs séquences à des tempos différents. Enfin il répète les mêmes hauteurs, mais encore à des tempos métronomiques différents, soit établis à l’avance, soit décidés par le pianiste.
53Up-Down. Des arpèges d’octaves altérées sont déclenchés par le pianiste, qui voit ses notes proliférer. Le tempo des arpèges est établi d’abord par le tempo du pianiste ; puis par la note qu’il joue ; enfin par l’intensité du jeu.
54Résonances. Au début et à la fin, l’ordinateur tient de long accords. Dans la section médiane, le pianiste joue des accords muets : les cordes sont mises en résonance par les séquences jouées par l’ordinateur.
(R)envoi
55Bien entendu, la validité d’un travail artistique n’est nullement garantie par la scientificité ou la technicité de l’arsenal utilisé. Les œuvres ayant recours à l’ordinateur devraient être évaluées en tant qu’œuvres et pas seulement en tant qu’expériences. La composition demeure une aventure individuelle, dans laquelle l’auteur se commet et engage sa responsabilité artistique. La musique devrait parler pour elle-même. Aussi je renvoie le lecteur à la discographie. Mais je tiens à préciser que les possibilités spécifiques de l’ordinateur, « outil universel », atelier matériel autant qu’intellectuel, m’ont aidé à réaliser certains désirs musicaux : sculpter et composer les sons eux-mêmes ; transformer l’un dans l’autre des sons instrumentaux, solidifier ou liquéfier une texture ; agir à la naissance de processus sonores et contrôler à la fois le matériau et la structure musicale, que ce soit dans la dimension horizontale ou verticale, par exemple prolonger l’harmonie dans le timbre ; suggérer un monde sonore illusoire, immatériel, mais pourtant prégnant, et mettre en scène sa rencontre avec le monde des sons réels.
Notes de bas de page
1 Les œuvres signalées par un astérisque (*) sont disponibles sur disque.
2 La Suite fait partie d’une musique composée pour la pièce Little Boy de Pierre Halet (Paris, Seuil, 1968), musique qui comporte aussi des sections vocales et instrumentales. Le thème de la pièce est le bombardement d’Hiroshima, revécu à travers les fantasmes du pilote Eatherly. Dans la pièce, certains aspects sont très réalistes, mais d’autres indices de la mise en scène ou de la musique indiquent que l’action n’est que rêvée. Ainsi, avions ou sirènes sont évoqués par la musique, mais leur simulation par synthèse sonore leur confère un caractère irréel et permet de les relier harmoniquement avec les structures musicales présentées dans les sections instrumentales et vocales. Dans la Suite, l’action est condensée en trois volets. Au cours du premier, Vol et compte à rebours, le rêve du vol vers Hiroshima s’accompagne de textures mouvantes, que transpercent deux épisodes fugitifs (jazz, gong) puis le compte à rebours du lâcher de la bombe, scandé avec la rigueur d’un métronome. Dans le second volet, Chute, le son parcourt parmi diverses fusées les grands cercles d’une descente indéfinie : en effet, le pilote s’identifie à la bombe, dont le nom de code est Little Boy, et la chute est imaginaire, dans un espace psychique sans fond. Dans le troisième volet, Contre-apothéose, des éléments antérieurs réapparaissent pour se désintégrer : le jazz band devient rafale de mitrailleuse, la flûte et le gong mutent en sirènes qui s’accumulent en tournoyant, puis s’effilochent en souvenir. Les recettes de synthèse de nombre de sons de la pièce se trouvent dans mon Introductory Catalog of computer-synthesized sounds (Bell Laboratories, 1968). La seconde section de la pièce, la Chute, est commentée et visualisée à partir de l’analyse du son dans l’ouvrage de Robert Cogan, New images of musical sound, Harvard University Press, 1984, pp. 108-112. Sur les paradoxes de hauteur, cf. J. C. Risset, Paradoxes de hauteur,7th International Congress of Acoustics, Budapest 1972, pp. 20S10 to20S14, et « Pitch and rhythm paradoxes : comments on Auditory paradox based on fractal waveform », Journal of the Acoustical Society of America 890 (1986), pp. 961-962.
3 On trouvera d’autres détails sur Mutations dans l’ouvrage de Barry Schrader, Introduction to Electroacoustic Music, Prentice-Hall 1982, et dans celui de Hans Ulrich Humpert, Elektronische Musik, Schott 1987. pp 54-56.
4 Sur Inharmonique, cf. aussi Hans Ulrich Humpert, Elektronische Musik, Schott 1987, pp. 206-208.
5 On trouvera plus de détails sur Passages dans un article en italien publié par le Bolletino del LIMB 3, 1983, pp. 69-82.
6 Des extraits de Songes ont été publiés dans le le disque IRCAM — un portrait et dans le Computer Music Journal. La pièce est commentée par Lev Koblyakov : « Jean-Claude Risset : Songes, 1979 », in Musique de notre temps (coll. dirigée par Nigel Osborne : L’IRCAM. une pensée musicale, Paris, Ed. des Archives Contemporaines, 1984, pp. 183-185).
7 La philosophie du développement de ces outils est très clairement exposée dans un article dont le titre même est révélateur : « Simulation par ordinateur du studio électro-acoustique et applications à la composition musicale », par Jean-François Allouis, Benedict Mailliard, François Bayle, in Conférences des journées d’études du Festival du Son 1981, SDSA, pp. 43-56. (On pourra consulter aussi le quadruple numéro de la Revue musicale, pp. 394-397, consacrée à la Recherche musicale au GRM).
8 Cf. Hartmann, W. : The frequency-domain grating, Journal of the Acoustical Society of America 78, 1985, pp. 1421-1425.
9 J’ai réalisé cette œuvre en 1989, comme compositeur en résidence au M.I.T. (Groupe « Music and Cognition », Media Laboratory) avec l’aide du Massachussetts Council of the Arts. Le programme temps réel utilisé est MAX, écrit par Miller Puckette au M.I.T. et à l’IRCAM. J’ai bénéficié de l’aide extrêmement compétente de Scott Van Duyne.
Auteur
Le texte seul est utilisable sous licence Licence OpenEdition Books. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.
Un siècle de création musicale aux États-Unis
Histoire sociale des productions les plus originales du monde musical américain, de Charles Ives au minimalisme (1890-1990)
Laurent Denave
2012
Huit portraits de compositeurs sous le nazisme
Michael H. Kater Sook Ji et Martin Kaltenecker (trad.)
2011
Figures sonores
Écrits musicaux I
Theodor W. Adorno Marianne Rocher-Jacquin et Claude Maillard (trad.)
2006
L'idée de la musique absolue
Une esthétique de la musique romantique
Carl Dahlhaus Martin Kaltenecker (trad.)
2006