L’électricité en musique
p. 134-145
Texte intégral
L’électricité
1L’électricité et l’électronique nous ont apporté deux choses : d’une part des écritures nouvelles, d’autre part des possibilités sonores déliées des contraintes gestuelles (neuro-musculaires) et physiques dans le domaine acoustique (inertie, gravitation, etc.). Par écriture, j’entends tout d’abord la manière de fixer, sur un support donné, un message musical. Quant à la liaison entre le monde acoustique traditionnel et le monde électrique, elle a nécessité l’invention de deux interfaces : le haut-parleur et le microphone. A partir de ces interfaces sont nées de nouvelles écritures. Grâce aux moyens électroniques, il fut possible de reproduire plusieurs fois, de façon absolument exacte, un phénomène sonore donné. Jusque là, on imputait à l’émetteur la différence perçue entre deux répétitions d’un même phénomène ; désormais, nous sommes conduits à interroger le problème de la perception dans une perspective nouvelle. La perception nous apparaît beaucoup plus subjective et créative que nous l’avions imaginé ; elle peut changer d’un instant à l’autre.
2Sous-estimons-nous la manipulation de notre pensée par notre écriture ? Avons-nous compris, par exemple, à quel point la séparation instrument/composition (matériau/structure) est, bien qu’extrêmement féconde, historique ?
3Au cours de notre histoire, nous avons inventé divers moyens de fixer les événements musicaux par une notation (mémoire externe au cerveau humain). Nous sommes ainsi passés de l’image (les graphismes des hiéroglyphes égyptiens ou les neumes du chant grégorien) à des symboles plus abstraits (les lettres ou les notes). Cette stylisation a permis l’émergence, entre autres, de la fugue, de la symphonie ou du sérialisme, qui étaient directement engendrés par le couple matériau/structure1. Toute écriture contient ses possibilités de réflexion, de manipulation et de transmission. Et toute transmission engendre des transformations par la différence entre le codage de l’émetteur et le décodage du récepteur, même s’ils sont la même personne, car l’instant n’est pas le même.
4L’enregistrement sur bande magnétique ou la mémorisation de données par l’ordinateur peuvent être considérés comme des écritures électriques2. La possibilité d’écrire avec la seule mémoire musculaire en est une particularité. Les gestes qui en émanent produisent des ondes sonores qui sont inscrites sur la bande : tracé de la mémoire musculaire mise en mouvement. Cette écriture permet ensuite des lectures successives d’une même information avec des « outils de lecture » extrêmement divers, tels que la mémoire musculaire (le son reçu fait appel à des souvenirs gestuels3), la mémoire affective, et la mémoire « intellectuelle » tentant, selon des apprentissages précis, d’organiser le flot arrivant en couches hiérarchisées4 (ce que nous appelons généralement « analyse »).
5La « musique concrète »5 est née de cette nouvelle écriture électrique. Nous fûmes nombreux à réagir négativement à son égard lors de nos premières expériences avant de comprendre l’étendue de la découverte. Il nous semblait que le matériau sonore résistait à nos volontés de compositeurs. Nous en étions restés à la conviction (historique) que la musique se fait avec des « notes » structurables. Notre histoire avait atteint le terme d’un long parcours vers un matériau « neutre »6 et malléable ! De même, le compositeur avait pris l’habitude que l’instrumentiste réalise les sons à partir de la « note » écrite. Or, dans la musique concrète, son travail compositionnel ne commençait pas avec la transformation et l’agencement des sons enregistrés, mais au moment de la conception : voulait-il enregistrer des sons, lesquels, de quelle manière, et dans quel but ?
6L’écriture sur papier avait engendré des structures extrêmement complexes qui exigeaient un matériau de plus en plus neutre (cela correspond à une importante omission de l’écriture musicale du siècle passé : son absence de description de la qualité sonore). Or l’écriture électrique, elle, est capable de mémoriser (et de nous restituer) des aspects de la musique jusqu’alors pris en charge par l’instrumentiste — et donc modifiés à chaque répétition de l’événement musical. L’apparition de cette écriture a été si subite et ses conséquences si inattendues que notre désarroi fut grand ; nous essayons, coûte que coûte, de maintenir le couple matériau/structure dont nous maîtrisons si bien la mise en œuvre. Le saut dans un univers organisé de façon différente est extrêmement angoissant ; pouvons-nous seulement l’imaginer ?
7La pratique de la musique concrète nous a donc obligé de poser la question de l’écriture. L’écriture est-elle un algorithme ou une banque de données ? Un algorithme est un mécanisme qui produit des données. Il nécessite généralement beaucoup moins de mémoire pour être conservé que la banque de données, et les premiers ordinateurs, qui avaient une mémoire très restreinte, incitaient le musicien qui s’en servait à travailler avec des algorithmes plutôt qu’avec des banques de données. On pourrait ici faire une analogie avec l’écriture traditionnelle, qui a provoqué des stylisations efficaces (réduction d’une banque de données à l’algorithme qui la produit, c’est-à-dire à son principe). Ces « réductions » peuvent conduire à sous-estimer la complexité d’une banque de données. L’apprentissage traditionnel de l’harmonie en est un bon exemple : la réduction d’un phénomène aussi complexe que le langage tonal à « l’harmonie » telle qu’on l’enseigne peut encore aujourd’hui mener à des comportements musicaux désastreux.
8Une mémoire plus étendue (mémoire des ordinateurs actuels) et des écritures de flots de données faciles à obtenir (enregistrement sur bande magnétique) ont renforcé la question de savoir si la musique était, d’une façon générale, réductible. Une réponse négative expliquerait bien l’inexplicable de ce que nous considérons comme chef-d’œuvre et ouvrirait en même temps des perspectives intéressantes sur la création7.
9La formulation d’une connaissance en un algorithme nous informe du degré de cette connaissance au moment où la banque de données résultante est perçue : notre perception est souvent sensible à de minimes différences entre une banque de données prélevée (exemple : un son acoustique ou une phrase musicale connue) et son correspondant synthétisé par algorithme. Le compositeur n’utilise généralement pas les algorithmes pour reproduire des « réalités », c’est-à-dire produire une banques de données qui se rapprocherait d’une banque prélevée, mais pour produire des données particulières et nouvelles qui communiquent précisément l’algorithme générateur ; ces données représentent le tracé de l’algorithme mis en état de mouvement, et constituent par ailleurs la seule manière de percevoir (et de « vivre ») un algorithme.
10La musique concrète, observée par une pensée un peu trop liée à certains concepts de la musique instrumentale traditionnelle, ressemble à une banque de données (désagréablement) figée. Or l’apprentissage proposé est précisément celui-ci : de quelle manière une banque de données (conservée avec précision et accessible) est-elle utilisable ? La possibilité de conserver un flot de données sans devoir, pour des raisons simplement pratiques et incontournables de fabrication, le décomposer en algorithmes réduisant la taille et la rapidité des informations, ouvre-t-elle des perspectives fondamentalement nouvelles de conception et de réalisation de la musique ? La séparation matière/structure n’étant plus nécessaire, d’autres méthodes de travail peuvent-elles surgir ? La discipline de la musique concrète pour la génération des compositeurs dont je fais partie, formés dans la tradition d’une matière que l’on structure sans contraintes, était salutaire. L’angoisse de perdre un événement, aussi subtil soit-il, par manque de mémoire ou par manque de recul, s’est calmée et l’on a pu fabriquer librement des objets sans se préoccuper de savoir s’ils avaient un sens (celui qui ne servait qu’à la mémorisation !). Cette discipline a provoqué une ouverture sur l’expérimentation, un élargissement de la conscience : le rôle de la musique a changé.
11Nous avons donc commencé, avec la musique concrète, à travailler avec des banques de données. Elles étaient difficilement décorticables, mais cela engendra des découvertes conceptuelles importantes. Pierre Schaeffer proposa alors un nouveau solfège. De culture germanique, j’en souris d’abord. C’est plus tard que j’en compris la signification profonde : face à de nouveaux comportements, la perception doit se modifier pour pouvoir capter les informations nouvelles. Ma perception doit se modifier sous peine de ne pas apercevoir que le monde a changé (les contraintes de survie se sont modifiées), de devenir incapable d’entendre, et de faire une musique limitée par mes lacunes de perception et n’exprimant que celles-ci !
12De nouveaux solfèges sont dorénavant nécessaires.
13Les possibilités que l’écriture informatique offre au musicien d’aujourd’hui et l’utilisation qu’il peut en faire sont une conséquence directe de ce qui précède et j’y reviendrai en rapport avec la composition algorithmique. Elles offrent notamment la possibilité de passer de l’image (enregistrement d’un flot de données) à des symboles plus abstraits (représentations diverses de ces banques de données produisant à leur tour des flots de données diverses).
La perception ; le monde non musculaire
14Percevoir : produire dans son conscient des formes saisissables et éventuellement mémorisables à partir d’un flot de données. La perception est individuelle et liée à des vécus.
15Je me sers ici de cette définition. Cette « production de formes saisissables » est donc liée à des apprentissages, elle peut être modifiée et même volontairement dirigée dans un sens ou dans l’autre, comme le montrait l’exemple de la perception passant d’un « accord » à un « timbre8. J’utilise en outre le terme de « musculaire » (expérience, mémoire, vécu musculaire) : j’entends par là un ensemble neuro-musculaire/corporel que nous distinguons souvent subjectivement de ce que nous appelions couramment « mémoire », « conscient », « intellect », etc.
16La perception sonore semble très bien réussir à nous transmettre des « réalités » physiques9. Il n’est pas sans importance que notre musique des siècles passés ait été faite par des instruments acoustiques, pour lesquels il est fait appel à un effort musculaire, dans des salles de concert où l’on pouvait voir instrument et musicien. Les modes de jeux qu’utilisaient ces instruments étaient en outre des plus connus ; tout le monde en avait une expérience musculaire : frapper, souffler, frotter. Ce fait aidait à la perception des formes. Par opposition, tout son inconnu signifie un danger, selon un réflexe humain de survie, et provoque des besoins de fuite immédiate et irréfléchie (pour gagner du temps sur un éventuel prédateur) ou carrément une inhibition. Cela explique qu’une musique, tant qu’elle est inconnue, soit source d’angoisse, et ce d’autant plus qu’il est difficile de la connaître, de la rapprocher du vécu musculaire. Il y a ainsi un grand intérêt pour l’homme à dépasser son angoisse inconsciente face aux sons inconnus et à construire, précisément pour cette raison, des musiques qui s’éloignent des réalités musculaires. Celles-ci deviennent un instrument d’exploration du monde intérieur, un moyen de médiation entre inconscient et conscient.
17L’électro-acoustique apporte les moyens de conception et de réalisation de mondes sonores non musculaires, de mondes à la limite des comportements des objets auxquels nous sommes habitués (gravitation, inertie, etc). Il est étonnant de voir notre émerveillement face à un son de piano, avec sa résonance, « passé à l’envers » ; il est aussi étonnant de constater que ce son ne peut être identifié qu’intellectuellement comme un son de piano à l’envers ; le vécu se refuse à cette interprétation, par manque d’expérience du temps « à l’envers ». On pourrait encore énumérer quelques techniques utilisées en rapport avec la bande magnétique10 et provoquant la perception de « mondes imaginaires » : montage, mixage (transporter des réalités acoustiques dans le temps et dans l’espace) ; transposition, micromontage (création de comportements énergétiques non physiques) ; filtrage (création d’objets sonores imaginaires).
18« La musique concrète est-elle de la musique ? » est la fausse question qui cache ce constat : les mondes sonores qui ne permettent pas un décodage linéaire font peur, car ils contiennent des informations très précises, mais non consciemment contrôlées par l’émetteur et le récepteur. J’en déduis que la véritable question est celle-ci : suis-je conscient d’avoir à faire à une communication, suis-je capable de la décoder et d’y trouver quelque chose qui m’intéresse ? J’ai pour ma part la conviction que la musique se dépouille de cet aspect décoratif qu’elle avait à l’époque où le musicien faisait partie des employés de maison (cuisinier, maître de cérémonie, cocher, décorateur, etc.). Ces employés étant de plus en plus rares, l’espoir est permis que la société change la fonction du musicien et qu’elle le reconnaisse en tant que créateur de mondes sonores inouïs, destinés à tenir l’esprit en éveil. Mais ces mondes n’ont un intérêt qu’à partir du moment où j’ai appris à lire le flot d’informations que je capte : il s’agit donc de diversifier constamment mes facultés de « lectures ».
19Il me semble avoir suffisamment démontré l’intérêt, pour notre développement musical actuel, de ce curieux phénomène qu’est la musique concrète. J’ai peut-être utilisé le terme de musique concrète de façon un peu large, et j’aurais pu l’appeler « tape music ». J’ai préféré la référence aux travaux du Groupe de Recherche Musicale à Paris qui me semblent constituer une recherche importante et indispensable entre la composition « traditionnelle » (sur papier) et les méthodes de travail que la technologie actuelle nous offre. La bande magnétique nous fournissait en effet une écriture nouvelle et la possibilité de créer des mondes sonores hors de notre expérience physique et musculaire. Elle nous permettait de faire les premiers pas dans la manipulation de banques de données. Toutefois, elle nous faisait aussi sentir que des moyens plus puissants nous étaient nécessaires pour gérer des banques de données et pour engendrer des mondes non musculaires avec précision et finesse — bref, pour fabriquer de l’inouï.
La composition : une méthode pour fabriquer de l’inouï
20L’idée de construire des objets abstraits et de les traduire ensuite sous une forme perceptible n’est pas réservée uniquement à la musique, et elle n’est pas nouvelle11. Elle est à reconquérir à tout moment sous des formes inédites12. Le sérialisme a élaboré un exemple d’outil permettant d’extraordinaires abstractions tout en garantissant une réalité sonore possible (utilisation d’écriture et d’instrumentistes « traditionnels ») ; la musique concrète a interrogé le matériau sonore et posé la question de savoir si le concept matériau/structure était toujours actuel. L’ordinateur permet de combiner ces deux acquis.
21Le musicien peut aborder l’ordinateur par la composition algorithmique13, celle-ci comporte deux domaines :
- algorithme (algorithme de génération et algorithme de transformation) : procédure produisant un flot de données qui est éventuellement conservé en tant que banque de données. Lorsqu’on utilise le concept d’algorithme avec un ordinateur, on essaie de formuler celui-ci en un programme exécutable par l’ordinateur, le flot de données étant alors dirigé vers un support de conservation (par exemple disque magnétique), un traducteur acoustique ou du papier (par exemple notation musicale « traditionnelle »). Un algorithme peut exiger des « entrées » de données qu’il utilise.
- banque de données : ensemble de données conservé, son origine n’étant pas toujours connue, ni comprise. On peut appliquer un algorithme sur une banque de données avec le but de l’analyser (l’analyse ne donne d’ailleurs pas forcément des renseignements sur l’origine de la banque, mais en extrait plutôt des structures dans le but de les utiliser ultérieurement) ou de la transformer. On peut dire que l’on façonne un algorithme de telle sorte qu’il produise des données particulières qui communiquent précisément l’algorithme générateur ; c’est le tracé de l’algorithme mis en état de mouvement, et c’est la seule manière de le percevoir.
22Un son de trompette, par exemple, peut être considéré comme étant le résultat d’un algorithme qui décrirait la forme de la trompette, le matériau et ses caractéristiques vibratoires, la manière de mettre ces vibrations en mouvement (bouche et embouchure), etc. Cet algorithme complexe produit une onde sonore complexe (banque de données). Curieusement, désirant analyser cette banque (un son de trompette ayant été entré dans l’ordinateur sous forme digitale), les chercheurs musiciens des premières décennies ne sont pas allés voir chez leur collègues physiciens pour apprendre comment mesurer ces données ! Pourtant, ils savaient très bien comment le son en question était produit.
23Ils ont analysé le résultat de l’algorithme (l’onde sonore), comme si l’algorithme lui-même n’était pas accessible ou d’aucune utilité. Cela s’explique peut-être par le fait que le musicien croyait posséder un outil d’analyse tout fait (et qui en plus correspondait bien à une certaine esthétique de l’époque : composer avec un matériau aussi neutre que possible pour pouvoir le manipuler d’autant plus librement) : l’analyse de Fourier14. En plus, il disposait de descriptions de sons instrumentaux faites par Helmholz à partir de systèmes expérimentaux astucieux15. N’ayant eu les moyens de synthèse nécessaires à la vérification de tels travaux, ces théories étaient plausibles et enseignées jusqu’aux premiers essais de synthèse par Risset/Mathews aux Laboratoires Bell16.
24La théorie de Fourier est exacte ; l’erreur est dans l’hypothèse qu’un son acoustique soit périodique. Et dans toutes les tentatives de synthèse sonore voulant synthétiser le monde acoustique, on se heurte jusqu’à aujourd’hui à l’énorme complexité de l’enchevêtrement des algorithmes (et de leur spécificité) qu’il faudrait mettre en œuvre pour produire un flot de données de même complexité que celle qu’un corps physique produit dans un environnement acoustique, le tout en mouvement constant. Et, curieusement, c’est seulement depuis peu que la méthode de synthèse qui s’intéresse aux comportement d’objets physiques produisant des sons acoustiques, à l’analyse de leur fonctionnement et aux tentatives de programmation de ces algorithmes commence à être sérieusement travaillée !
25Les expériences ayant été faites, on peut voir aujourd’hui l’intéret de quelques « erreurs ». A mon avis, il n’est pas erroné d’analyser une banque de données (d’en rechercher des algorithmes de production) avec une méthode résolument « fausse » (éloignée des algorithmes qui ont réellement produit la banque de données), mais bien au contraire, c’est un dispositif d’un grand dynamisme créatif (et qui, lui, n’est pas nouveau non plus). En essayant de synthétiser des sons acoustiques par une méthode aussi peu adaptée que la synthèse de Fourier, on a fait (au moins) deux découvertes passionnantes :
- Autant les connaissances solfégiques (traduire en symboles un flot sonore) étaient grandes dans certains domaines (extraire du flot sonore les hauteurs, les durées et les nomenclatures de timbres connus), et pour cause, vue la complexité des structures à partir de « notes » à laquelle on était arrivé dans les années cinquante, autant était-on obligé d’admettre que les connaissances formulables, « solfégiques », de la matière sonore nouvelle étaient insuffisantes ; la découverte de cette défaillance fascinait : c’était un nouveau domaine à conquérir.
- D’autre part, justement parce que les moyens mis en œuvre étaient si mal adaptés à l’imitation du monde acoustique, ils nous incitaient à faire des sons magnifiquement irréels, c’est-à-dire non acoustiques. Le problème (éventuel) étant alors de pouvoir les percevoir, c’est-à-dire réussir à les distinguer, condition sine qua non pour pouvoir donner forme au flot sonore avec notre système perceptif.
26Je crains que nous ayons été, sur le moment, tellement conditionnés par le « matériau » auquel nous étions habitués (c’est-à-dire les sons acoustiques et instrumentaux) que nous avons rejeté trop rapidement certains essais de sons « électriques » sous prétexte qu’ils étaient inintéressants, sans s’apercevoir des pistes qu’ils indiquaient : nous n’y avons pas vu tout de suite les possibilités de mondes nouveaux, et donc de diversification. Pourquoi ne s’est-on pas servi plus tôt du système de synthèse qui met en œuvre des modèles physiques ? A-t-on eu peur que ces modèles soient trop déterministes et ne fournissent pas des matériaux suffisamment malléables et donc composables ? Outre le vieux couple « matériau/structure » qui, comme on l’a vu, s’est effondré, on a peut-être compris maintenant que les modèles physiques ne limitaient pas forcément les élans créateurs : comme on a appris qu’il est possible d’intervenir en réutilisant les données provenant d’une analyse, on entrevoit la possibilité de créer, en tant qu’algorithme dans un ordinateur, un objet imaginaire qu’on fait vibrer de manière imaginaire et qu’on écoute à travers un traducteur acoustique. A l’écoute de ces musiques, notre système perceptif part alors à la dérive et fabrique des images « d’instruments fantastiques ». Naturellement, cela présuppose, une fois de plus, que l’écoute soit créative et imaginative, et qu’elle n’essaie pas à tout prix de ramener le son entendu à des objets connus17.
27C’est dans sa possibilité propre d’abstraction que réside l’un des intérêts qu’il y a à utiliser l’ordinateur comme outil pour fabriquer de l’inouï18. L’informatique a deux qualités importantes pour réaliser cette tâche : d’une part, l’idée peut être formulée abstraitement, en dehors de tout contexte (notamment sonore) ; d’autre part, la banque de données peut être conservée, rendue sonore, répétée et analysée afin de comparer la réaction perceptive avec la perception présupposée19.
Point de vue
28Ce texte décrit le point de vue d’un compositeur et pianiste : je fais des musiques instrumentales et électriques ; je dis « faire », car cette activité comporte écriture, improvisation, réalisation, direction, etc. Mon point de vue est donc une réflexion à partir d’un vécu. La technique de composition dans le domaine électrique semblait au début se distinguer beaucoup des habitudes d’écriture instrumentale. Par la suite, j’ai de plus en plus découvert la possibilité d’apprendre dans un domaine grâce à l’autre. Il est fascinant d’appliquer des structures compositionnelles à des comportements de sons concrets et de les entendre réagir, ou encore d’utiliser une partition instrumentale (et non le son résultant) comme un son concret, en la transformant au moyen de traitements et de méthodes de travail appris avec la « bande magnétique » ; ces méthodes sont alors décrites sous forme de programmes d’ordinateurs qui traitent la banque de données qu’est la partition. Le GRM et l’IRCAM, où j’ai travaillé entre 1966 et 1984, représentent pour moi deux modes de penser et je suis conscient d’en être issu : je tire parti de la dynamique entre ces deux pensées parfois si merveilleusement contradictoires.
29Par ailleurs, il existe des « écoles » qui partent de la conviction que l’homme a des facultés de perception finies ; on étudie alors ce que l’homme est capable d’entendre et on enseigne aux compositeurs à être efficaces dans ce sens : « Sachez que tel ou tel phénomène n’est pas audible, donc ne l’utilisez pas pour structurer votre discours. » Pour de multiples raisons déjà expliquées, je n’adhère pas à cette manière de penser ; elle enlève au compositeur un de ses rôles essentiels : créer de l’inouï. La théorie qui prétend que l’oreille ne perçoit pas la différence créée entre deux sons par la phase de leurs harmoniques en est encore un exemple. Il suffit en effet de mettre des sons fréquentiellement stables en état de déphasage global (ce qui arrive généralement dès qu’un son se promène dans un espace réverbérant) pour s’aperçevoir que le rapport temporel entre les harmoniques devient audible en tant que « mélodie d’harmoniques ». Ce phénomène est subtil et nécessite un apprentissage d’écoute pour pouvoir être perçu. Mais la musique offre entre autres la possibilité d’apprendre à percevoir de plus en plus finement et d’élargir de cette façon sa conscience.
30Une autre préoccupation du compositeur d’aujourd’hui est « le monde artificiel ». Les machines et l’informatique remplacent les actions musculaires et neuroniques de l’homme. La musique est un domaine dans lequel ce monde peut être expérimenté de manière particulièrement forte, puisque les « défenses » de l’inconscient envers la musique semblent être assez faibles. L’homme ne perd pas forcément ses facultés ou ses libertés lorsqu’il fait de nouvelles découvertes. Mais un monde nouveau exige une pensée nouvelle pour être viable. La pensée contemporaine ne consiste pas à abandonner les acquis culturels (pour la seule raison qu’ils font partie du passé), mais à prendre conscience de nos comportements liés à une situation historique qui n’est plus d’actualité aujourd’hui. Cette conscience nous donne la liberté de maintenir ou non un comportement lié à l’histoire au lieu d’en être prisonnier. La société exigera de ses artistes une pensée contemporaine.
31L’homme dispose de moyens technologiques qui lui permettent de commettre des actes d’une grande portée sans devoir en supporter les conséquences corporelles immédiates (mais éventuellement d’autant plus étendues par la suite). Le temps entre l’action et ses conséquences est devenu trop grand pour que l’on puisse régir le monde avec son seul instinct. Au moment où la conséquence surgit, il est trop tard pour pouvoir changer l’action qui l’a provoquée. Or l’homme est essentiellement construit pour fonctionner « en temps réel », c’est-à-dire dans un monde où il subit tout de suite la conséquence de ses actes et peut y réagir immédiatement. Tout autre système (« temps non réel ») exige un apprentissage pour que l’homme puisse survivre ; il faut donc des terrains d’expérimentation où les conséquences des actes soient vécus violemment sans être mortelles pour l’espèce. La composition musicale m’apparaît, entre autres, comme un terrain idéal pour l’étude du temps non réel ; depuis longtemps le compositeur est habitué à ce que les conséquences de ses actes apparaissent seulement beaucoup plus tard : entre le moment où il conçoit un instant sonore, son écriture, le temps de copie, de programmation en concert, de répétition et d’exécution, le temps est long. La composition se situe typiquement dans le domaine du « temps non réel ».
32La musique informatique distingue entre « temps réel » et « temps non réel ». Notre tradition musicale est habituée à cette distinction (par exemple : improvisation — composition). La notion de temps réel en musique informatique veut dire que le temps entre l’ordre donné à la machine (par exemple un geste de danseur devant une cellule photorésistante) et la réalisation sonore correspondante par la machine (par exemple un son qui « décrit » ce mouvement de danseur) est si court que le danseur-musicien a l’impression que le son est simultané au geste. Cela lui permet de « réagir » comme s’il jouait d’un instrument traditionnel. La notion de « temps non réel » décrit des configurations où les ordres et les données sont fournis à la machine à un moment donné, mais le son résultant est entendu plus tard (pour certains calculs complexes, cela peut prendre plusieurs jours !). Dans cette situation, on ne peut donc pas réagir en « temps réel » vis-à-vis du résultat obtenu. Ce temps non réel, parfois décrié comme rendant impossible le travail musical avec l’ordinateur, est pourtant nécessaire à l’abstraction : le temps réel contrecarre l’abstraction par son appel au système neuro-musculaire qui réagit avant que la réflexion et l’imagination aient eu le temps nécessaire à leur fonctionnement — et qui, de ce fait, influence, c’est-à-dire diminue la nécessité de l’abstraction, donc l’abstraction elle-même.
33Pour garder notre planète nous sommes de plus en plus dans la situation où il faut prendre des décisions qui ne montrent leurs effets que beaucoup plus tard : la composition algorithmique et le temps non réel en synthèse sur ordinateur peuvent être vus comme une métaphore ; le compositeur prend des décisions et n’en subit les conséquences qu’au moment de l’écoute, quelques heures plus tard. Il est trop tard pour réagir.
Notes de bas de page
1 Le concept de la note comporte dans la musique « traditionnelle » la caractéristique de ne Pas changer de hauteur pendant toute sa durée, ou tout au moins, de faire le nécessaire pour ne signifier qu’une seule hauteur. Lorsque je me suis aperçu de cette orientation « objet », j’ai commencé à développer des concepts qui rendaient l’objet impossible. (Cantus, réalisé par ordinateur avec un programme qui rend la continuité sonore obligatoire). Cette notion d’objet est bien sûr également liée à l’écriture qui l’a provoquée.
2 Si le schéma de l’écriture consiste en un codage (écriture), une conservation et un décodage (lecture), alors la bande magnétique peut être considérée comme une écriture faite par la machine. L’écriture humaine utilisant la bande magnétique suivrait le schéma suivant : le codage (la production d’une onde sonore par un geste humain), la conservation par la machine sur bande magnétique et le décodage (écoute et décodage du flot sonore : produire dans la conscience humaine des formes mémorisables).
3 Un exemple connu étant les cordes vocales qui se tendent lorsque la dictée dans un cours de solfège commence dans une tessiture de la voix humaine et quitte par la suite cette tessiture en montant !
4 Voici deux exemples « d’apprentissage » :
- Vers 1950, les musiciens ont essayé de décrire le son par5 paramètres (hauteur, durée, spectre, amplitude, lieu d’émission) : cela est une vision bien précise, elle influence la pensée musicale, elle dirige la manière de composer : ces paramètres sont statiques et tout mouvement doit être décrit par une énorme liste pour chaque paramètre — liste si grande qu’elle semble dépasser la conception humaine réalisable « à la main » et qu’elle constitue un domaine d’investigation fructueux de composition algorithmique par ordinateur.
- Lors d’essais de synthèse avec MUSIC V à l’IRCAM, j’ai voulu faire un son où les diverses harmoniques commençaient l’une après l’autre (1/1000 seconde d’écart). Lorsque j’ai écouté le résultat, je n’entendais plus un « timbre », mais un « accord » composé par les fréquences des harmoniques. Croyant m’être trompé pendant la programmation du son, je revenais à la première version de ce son, où toutes les harmoniques commençaient en même temps : je n’entendais plus l’accord mais un timbre. Ayant finalement soupçonné le commencement simultané ou non des harmoniques d’être responsable de mes deux perceptions divergentes, j’ai passé le reste de l’après-midi à apprendre à « entendre » le même son comme « timbre » ou comme « accord », ce qui était parfaitement possible. J’ai donc appris à passer d’une perception à une autre indépendamment du phénomène sonore (simultanéité du commencement des harmoniques) qui avait déclenché des habitudes perceptives auparavant.
5 La « musique concrète » est née entre 1948 et 1950 (premier concert) au Studio d’essai de la R. T. F par les travaux de Pierre Schaeffer, Pierre Henry et Jacques Poullin. Ce terme est utilisé pour désigner des musiques faites à partir d’enregistrements de « sons concrets » qui sont retravaillés et organisés par des techniques de « traitements de sons ».
6 Dans de nombreux Conservatoires, l’instrumentiste doit encore apprendre aujourd’hui à avoir le son le plus « égal » possible de bas en haut de son instrument et dans toutes les nuances, du pp au ff.
7 Il est intéressant à ce propos de se rappeler que bon nombre de « chef-d’œuvres » musicaux ont été crées par des cerveaux qui avaient fonctionné au préalable pendant au moins 25 ans (apprentissage et productions antérieures comprises), mais que jusqu’à maintenant aucun ordinateur n’a fait fonctionner de façon continue un algorithme avec une partie « apprentissage » pendant 25 ans !
8 Cette prise de conscience m’a fait découvrir une nouvelle notation au moment où j’écrivais la partie de flûte de ce qui allait devenir Carcajou (1967) : au lieu de décrire le résultat que je voulais obtenir, je décrivais les gestes à faire (séparément pour les doigts, la bouche et le souffle). C’est plus tard que je comprenais qu’en fait j’avais fait un objet sonore où je ne structurais plus au matériau, mais que j’avais mis en route un processus global qui générait le tout. Et cette méthode de travail était acquise dans l’environnement de la musique concrète, où, ayant compris le phénomène du matériau « résistant » (et à l’époque, voulant le respecter), l’habitude naissait de concevoir l’objet à créer comme une interaction complexe de processus complexes, maîtrisable justement grâce à cette nouvelle mémoire : la bande magnétique
9 Je me souviens de cet ami de classe, aveugle, qui, un jour, entrant dans la salle de cours le dernier, répondit à Olivier Messiaen qui lui disait bonjour : « Tiens, vous avez changé les meubles de place ».
10 Ces techniques sont de plus en plus implantées sur ordinateur. Cette implantation permet un contrôle plus fin des actions entreprises et tend vers des systèmes où le musicien est assisté par des possibilités de globaliser ses actions et de les organiser, de ce fait, en structures de plus en plus complexes.
11 Deux exemples :
- L’ars subtilior du XIVe siècle, par exemple, construit des objets temporels d’une telle complexité que nous avons aujourd’hui de la peine à nous imaginer comment ces pièces de musique ont pu être chantées.
- Nous avons fait récemment une simulation sur ordinateur d’une pièce vocale de Morley construite avec ce type de complexités temporelles. Ces complexités ne posent pas de problèmes à la machine. Nous avons alors compris que le domaine des hauteurs, qui obéit dans cette pièce à des lois favorisant des tendances consonnantes, devait avoir une emprise si forte sur l’exécutant que le comportement temporel complexe se mettait en place presque automatiquement.
12 Etudiants, un soir tard, Jean-Yves Bosseur en face de moi dans le métro parisien bruyant : vive discussion. Et Jean-Yves s’exclame très surpris : « Mais toi, ça te fait plaisir lorsque tu entends tes pièces pour la première fois ? » Leçon étonnante pour moi de ce jeune homme, de plusieurs années mon cadet : la nouvelle musique pouvait être un domaine d’exploration au vécu difficile, difficile telle une traversée de forêt vierge avec ses soifs, ses angoisses sans masochisme, mais dans le but d’élargir sa conscience.
13 Au départ des travaux structurant les objets musicaux par ordinateur, on parlait souvent de composition automatique : l’ordinateur était considéré comme un automate. D’une façon très schématique, on peut d’ailleurs dire que, souvent, l’optique de la recherche américaine est de fabriquer des automates, alors que les Européens semblent s’intéresser d’avantage à des outils où l’homme garce « la main ».
14 Le théorème de Fourier démontre que n’importe quelle vibration périodique peut être décomposée en vibrations de base (partiels de forme sinusoïdale).
15 Helmholz utilisait des verres à pied, remplis plus ou moins d’eau, qui se mettaient à vibrer dès que le son à analyser contenait une partielle de même fréquence que la fréquence vibratoire du verre.
16 C’est à ce moment-là que nous nous sommes aperçus qu’un son ne pouvait pas être décrit par un spectre statique, mais qu’il était nécessaire de connaître une multitude de processus en mouvement.
17 Lorsque nous disons : « Toutes les musiques synthétiques se ressemblent ! » nous donnons autant de renseignements sur la similitude de ces musiques que d’indications sur les limites (actuelles) de notre perception en face du domaine entendu.
18 Voici une autre expérience faite à l’IRCAM dans les années quatre-vingt : je voulais étudier la perception de la répétition. J’ai écrit un algorithme qui appelait un générateur de hasard pour faire un fragment de données à répéter (A). Ensuite l’algorithme fabriquait la forme suivante : B A C A D A E A F - etc, les lettres Β -> F représentant à chaque fois un nouveau fragment de taille variée généré avec un générateur de hasard. Appliquant cet algorithme sur des hauteurs, écoutées à intervalles temporels réguliers, la perception n’avait aucune difficulté à repérer le fragment A (qui était autre à chaque répétition de l’expérience). Appliquée sur des durées (avec la même hauteur tout le temps), la perception se perdait à un tel point que j’ai cru que mon programme faisait des erreurs. Lorsque j’ai dû me rendre à l’évidence, après plusieurs heures de vérification, que l’algorithme faisait bien son travail, mais que ma perception était dépassée, j’ai mis plusieurs jours à apprendre à percevoir le phénomène.
19 Pour conclure ce chapitre j’aimerais encore donner trois exemples d’algorithmes :
- Exercice réalisé à I’IRCAM sur le système ARTS/4C : mise en œuvre de trois oscillateurs en cascade (chacun pilote la fréquence du suivant), les formes d’ondes du premier et du deuxième oscillateur ne sont ni « notes » ni « spectre », mais l’ensemble est une mécanique complexe qui oblige le compositeur à changer son mode de pensée (ce dispositif est actuellement implanté sur le DSPX-16 du Centre Suisse de Musique Infomatique, programmé par Nicolas Sordet).
- Kreise (pour grand ensemble à vent, 1986) : utilisation d’une banque de données provenant d’une improvisation faite sur un clavier MIDI et enregistrée par l’ordinateur. Le mouvement final de cette pièce est un « mixage » entre une sorte de contrepoint généré par ordinateur et la pièce improvisée. L’algorithme respecte les lois de « conduite des voix » que je lui ai données et prend les hauteurs en déroulant la pièce improvisée très lentement. La pièce « improvisée » est entendue jouée par des cuivres avant ce mouvement final de sorte que la perception puisse la mémoriser et retrouver dans ce mouvement final comme une citation perçue à travers un milieu aquatique lointain.
- Clavirissima (pour piano et ordinateur, 1987) : utilisation du son du piano, d’une décomposition en fragments et d’une recomposition de ce son en temps réel. Les passages à zéro de la forme d’onde du piano sont dépistés et les fragments ainsi obtenus sont recomposés selon des ensembles de paramètres donnés et variés tout au long de la pièce. Selon le choix de ces paramètres, des comportements très variés sont obtenus, allant de l’imitation du piano à la décomposition mélodique du comportement temporel de la forme d’onde.
Auteur
Le texte seul est utilisable sous licence Licence OpenEdition Books. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.
Un siècle de création musicale aux États-Unis
Histoire sociale des productions les plus originales du monde musical américain, de Charles Ives au minimalisme (1890-1990)
Laurent Denave
2012
Huit portraits de compositeurs sous le nazisme
Michael H. Kater Sook Ji et Martin Kaltenecker (trad.)
2011
Figures sonores
Écrits musicaux I
Theodor W. Adorno Marianne Rocher-Jacquin et Claude Maillard (trad.)
2006
L'idée de la musique absolue
Une esthétique de la musique romantique
Carl Dahlhaus Martin Kaltenecker (trad.)
2006