De la transformation des sons*
p. 155-163
Texte intégral
1La transformation sonore électronique d’informations acoustiques naturelles, comme la musique ou le langage, est un domaine qui fait partie de la musique électronique et que l’on nomme également live electronics. Il ne s’agit ni de musique d’ordinateur, ni de bandes de musique synthétique, mais d’une véritable transformation électronique en temps réel. L’ensemble des événements électro-acoustiques et l’interprétation musicale se font en même temps. Nous entendons le son original d’une flûte, une interprétation personnelle. Ce son original sera mêlé dans le haut-parleur au même son de flûte transformé électroniquement. Aucune manipulation de l’interprète, car il entend lui-même ce qui s’ajoute à la sonorité de sa flûte. Nous pouvons aussi décrire la transformation électronique du son comme l’élargissement sonore de l’instrumentarium traditionnel. Les appareils permettant une telle transformation, nous les nommons instruments de musique, à commencer par le microphone. Ils sont d’ailleurs montrés de façon manifeste dans la salle de concert, tout comme le reste des instruments – les ingénieurs et techniciens du son sont les partenaires à part égale des musiciens.
2Nous pouvons subdiviser les transformations électroniques du son en trois groupes principaux :
31. Transformation du son
4Modulateur en anneau – harmonizer (audiocomputer) – vocoder.
52. Sélection du son
6Banques de filtres de seconde, tierce et quinte.
73. Distribution du son
8Gate (amplificateur contrôlé en tension) – halaphone (distribution du son dans l’espace) – appareils de retardement.
9Tous les appareils nécessaires à ces trois types de transformation seront rassemblés dans une table de couplage électronique. A l’inverse d’un studio d’ordinateur particulier, nous employons la technique digitale pour l’organisation de notre transformateur de son, afin d’améliorer les changements de combinaison des appareils désirés par le compositeur. Ce qui signifie que table de couplage (matrice électronique), banques de filtres, vocoder et appareil de distribution du son dans l’espace, sont programmables à l’aide d’un micro-processeur. Ces programmes peuvent être rappelés en une succession rapide – condition nécessaire à l’intégration de transformations électroniques du son à l’intérieur d’un processus musical.
10Avec la publication de Paul Heinrich Mertens en 1975 sur les lois de Schumann qui régissent le timbre et sur l’importance de celles-ci dans le domaine de la transmission du langage et de la musique, la recherche sur le timbre fit un grand pas en avant et aboutit à de nouvelles connaissances, comme par exemple la relation particulière qu’entretiennent les lois physiques de Schumann avec la production électronique du son. Production électronique du son signifie réalisation synthétique de signaux acoustiques ; elle comprend la transmission électronique de la musique et du langage ainsi que les déformations électroniques de sons instrumentaux ou vocaux naturels. Dans le studio expérimental de la SWF, on a tenté de confirmer les lois d’une telle production, non seulement par des mesures physiques précises, mais aussi à partir de la création musicale utilisant les processus de transformation du son par la live electronics. Les fondements physiques sont complétés par des connaissances psycho-acoustiques. Ce procédé me semble être d’une importance particulière, car il clarifie au moins un problème que rencontrent continuellement musiciens ou compositeurs d’aujourd’hui : l’insuffisance de l’analyse sonore.
LES INSTRUMENTS ET LEUR FONCTION
1) Harmonizer-audiocomputer
11Un signal naturel (instrument/voix) peut être transposé, à l’aide d’un harmonizer, d’une octave vers le haut et de deux octaves vers le bas. En dehors de cette transposition se trouve encore la fonction « Reverse » ; un mot parlé sera par exemple renversé, c’est-à-dire que quand je dis « oui », j’entends dans le haut-parleur « i-ou ». La transposition donne au compositeur la possibilité de condenser le son original – au niveau de ses intervalles ou dans son timbre. Luigi Nono emploie avant tout la transposition pour l’élaboration de micro-intervalles, qui ne peuvent être réalisés en direct avec la voix ou l’instrument. L’interprète entend – ce qui implique pour lui une concentration extrême, car la perception d’autres micro-intervalles rend sa propre intonation très difficile – elle doit toujours être réapprise.
12Exemple N° 1 : La voix chantée est transposée d’un micro-intervalle environ par l’harmonizer puis mélangée par haut-parleur au son direct.
13Mode de fonctionnement de l’appareil : le signal d’entrée est digitalisé transformation en données alpha-numériques (convertisseur A/D). Ces données sont traitées mathématiquement dans l’appareil. Le rapport 1 :2 signifie ainsi transposition d’une octave vers le haut, et 1 :0,5 d’une octave vers le bas. Après une transformation supplémentaire des données modifiées (convertisseur D/A) en impulsions électriques analogues, le signal d’entrée transposé du début peut à nouveau être rendu audible.
2) Filtre-vocoder
14Afin de pouvoir pénétrer à l’« intérieur » du son, nous devons le sélectionner. Une analyse est une sélection. En rendant cette sélection audible, nous obtenons de nouvelles qualités sonores.
a) Le Filtre passe-bande
15A partir d’un son nous sélectionnons, à l’aide d’un filtre, un certain domaine de hauteurs. En superposant plusieurs filtres (filtres passe-bande), nous obtenons une banque de filtres. Suivant la largeur du filtre, nous parlons de filtre de seconde, de tierce ou de quinte.
16Exemple N° 2 : Un son complexe est composé d’un grand nombre de sons individuels dont la hauteur et l’intensité varient. Nous les appelons sons harmoniques ou sons partiels. L’exemple 3 montre les différentes harmoniques d’un son de clarinette.
17Exemple N° 3 : A l’aide d’une banque de filtres de seconde (esemple n° 2), nous pouvons à présent décomposer très facilment ce signal complexe – voix ou son instrumental – en petits domaines individuels. Si nous utilisons tous les filtres, le signal d’entrée est alors le même que le signal de sortie. Si nous utilisons des filtres isolés, le son original est d’abord détruit et remplacé simultanément, à la sortie du filtre, par une nouvelle série d’harmoniques, par un nouveau signal.
18Exemple N° 4 : Ce nouveau signal peut être mélangé au son original en tant qu’amplification partielle, ou encore être, par exemple, déplacé dans l’espace, seul et séparé du son original. Si nous employons le son filtré de la clarinette pour la commande d’un gate, ce n’est alors plus seulement l’intensité sonore, mais aussi la hauteur de ce son qui influence effectivement le gate. Comparons à cet effet l’exemple n° 4 : si la clarinette joue un sol 2 au lieu d’un mi 2, la fondamentale perd alors sa fonction de contrôle.
19Exemple N° 5 : L’exemple n° 5 montre un autre type de sélection sonore réalisée par le vocoder. Un signal, ainsi la parole, est analysé dans la banque de filtres 1. Chacun des domaines de hauteurs (cf. exemple 2) a une intensité différente (cf. l’analyse de la clarinette), transformée en tension de contrôle de grandeur correspondante. Ces filtres seront ouverts par la tension de contrôle provenant de la première banque de filtres. La grandeur de l’ouverture correspond, comme pour le gate, à la grandeur de la tension de contrôle correspondante. Si maintenant nous introduisons un autre signal complexe à l’entrée de la deuxième banque de filtres, alors de ce signal ne seront audibles que les domaines de hauteurs de même intensité sonore produits par la sélection de la parole (banque de filtres 1). Du deuxième signal naît une nouvelle parole. Ainsi par exemple, l’articulation et le timbre d’un instrument peuvent être transposés dans le son d’un autre : analyse sonore – synthèse sonore. Le vocoder permet donc une quasi-transformation des formants, c’est-à-dire que les domaines de formants d’un signal sont appliqués à un autre signal. Il va de soi que le signal 2 doit garder les fréquences des segments de formants du signal 1, car sinon la tension de contrôle n’intervient pas ; le signal 2 utilisera ainsi la plupart du temps des informations à large spectre, comme le bruit ou des vibrations riches en harmoniques, comme les vibrations carrées ou en dent de scie. Les deux filtres peuvent être mutuellement déplacés, de façon à obtenir une transformation supplémentaire.
20Temps-éloignement/timbre-dynamique/lieu de résonance-écho.
21La musique sans espace sonore est impensable.
22Nono compose dans l’espace pour l’espace.
23L’espace devient fonction formelle.
24La déperdition d’énergie et le principe de propagation des ondes acoustiques délimitent l’espace sonore naturel de la musique. La transformation électronique du son – son élargissement – rend possible la création de nouveaux espaces sonores, de nouvelles formes musicales. Tout comme l’architecture, la statique et la fonction utilitaire déterminent l’ampleur de la réorganisation d’un espace, nous pouvons aujourd’hui concevoir, à l’aide d’instruments électroniques, la création dans une petite salle d’un grand espace acoustique (jusqu’à environ 1 million de m3). Les temps de résonance s’allongent aussi par la même occasion : nous ne calculons plus seulement en millisecondes et en secondes, l’espace de la minute doit s’ouvrir maintenant à la musique. Nous ne parlons plus ici de résonance ou d’écho, mais d’un nouvel espace acoustique créé artificiellement.
25L’histoire du problème de l’espace est marquée d’idées diverses, d’énoncés contradictoires et surtout de querelles philosophiques, où le problème de l’espace est en premier lieu réduit à son aspect géométrique et physique. Le sens de l’ouïe permet certes de déterminer la structure spatiale en fonction des organes de l’audition, ainsi que l’organisation en profondeur par le mouvement (effet Doppler), mais les relations spatiales sont toutefois peu perceptibles, et l’orientation dans l’espace se fait uniquement par rapport à son propre corps. L’espace acoustique, comme nous l’avons déjà dit, n’est lié que relativement à l’espace, et ne permet qu’une estimation très imprécise de l’éloignement, de la perception des mouvements, et surtout de la localisation d’éléments sonores se déplaçant dans l’espace. Supposons notre capacité visuelle intacte, nous organisons alors la plupart du temps les données acoustiques spatiales à l’aide de l’espace visuel. Dans ce cas, nous pouvons considérer que l’espace visuel représente la totalité de l’espace perceptif. Les formes audibles sont plus temporelles que spatiales, et la perception acoustique de formes spatiales est donc plus difficile que leur perception optique. L’espace auditif dépend toujours de l’emplacement de l’auditeur, et il s’ensuit que la qualité de l’audition en est dépendante ; nous devrons en tenir compte lors de l’étude de la distribution du son et surtout de son déplacement.
26En adoptant comme des « instruments de musique » les appareils électroniques de production, de transformation et de distribution spatiale du son, la technique de réglage électronique est aussi devenue importante pour l’interprétation musicale. Sans elle, les compositions électroniques en direct comme celles purement synthétiques (computer) ne seraient pas réalisables, et cela surtout parce que la technique de réglage électronique ne touche pas seulement un domaine restreint de la réalisation musicale, mais permet de contrôler tous les paramètres de base, comme la hauteur (fréquence), le timbre (spectre) et la courbe de l’enveloppe dynamique (amplitude/temps). Le type de fonction de réglage est variable. A côté de la manipulation d’appareils électroniques (comme la table de mixage), ce sont plutôt les procédés de contrôle automatique qui intéressent les compositeurs, et qui ont gagné de l’importance grâce aux techniques de computer et à la construction de synthétiseurs.
27Un procédé fondamental du réglage électronique est le contrôle de la tension continue (voltage controlled). Toute modification de l’amplification, de la fréquence ou du timbre résulte d’une variation correspondante de la tension continue, qui, en tant que tension de contrôle, dépend de l’appareil correspondant.
b) Gate
28Lorsque les ondes sonores d’un instrument ou d’une voix rencontrent un microphone, ces ondes sont transformées en tension électrique. Dans le cas normal, ces tensions sont amplifiées et retransformées par hautparleur en ondes sonores audibles : simples techniques d’enregistrement et de reproduction. Dans un gate, ces tensions reçoivent une fonction supplémentaire, et doivent, dans cet amplificateur spécial, assumer la fonction de réglage de l’intensité sonore. Lorsqu’à la maison nous voulons mettre notre radio plus ou moins fort, cet ordre s’effectue par mouvement mécanique sur un élément de commande. Ici ce processus ne concerne que la tension de notre microphone. Plus l’onde sonore devant le microphone est forte, plus la tension du microphone sera grande, et l’intensité sonore dans le gate variera en conséquence.
29Exemple N° 6 : Le clarinettiste joue et le son original se fait entendre. Le flûtiste commence, lui aussi, à jouer, la tension de son microphone correspondant à son intensité sonore ouvre alors le gate, et nous pouvons entendre le clarinettiste à la fois en direct ou en son transformé (ligne rouge) dans le haut-parleur. Le microphone devient un instrument. Les interprètes peuvent s’influencer les uns les autres, un nouveau type de communication se forme entre eux.
30Exemple N° 7 : C’est la tension de contrôle du microphone qui règle. Cette fonction peut aussi être « inversée », ce qui veut dire qu’avec l’intensité croissante du jeu de la flûte, le gate 1 va se fermer, alors que le gate 2 s’ouvre normalement. A travers les deux haut-parleurs s’instaure un mouvement du son de la clarinette du haut-parleur 1 au haut-parleur 2.
31Exemple N° 8 – « Halaphone » : Lors de l’emploi de plusieurs gates dans une telle distribution nous obtenons un déplacement universel des sons dans l’espace (halaphone). Direction et temps du mouvement des sons deviennent des éléments formels constitutifs de la composition. L’espace, dans sa totalité, est intégré comme fonction acoustique définie dans la musique.
32L’exemple n° 8 montre trois types de mouvements sonores.
33Rouge = mouvement circulaire lent vers la gauche
34Bleu = mouvement circulaire rapide vers la droite
35Vert = mouvement diagonal punctiforme
36Exemple N° 9 : Le mot halaphone est une abréviation des noms Haller et Lawo. Peter Lawo a réalisé techniquement le premier appareil de distribution universelle du son dans l’espace d’après une idée de Hans-Peter Haller.
37Ci-après se trouve représenté le principe du schéma de contrôle automatique interne avec quatre générateurs.
38Exemple N° 10 – Retardement-Stratification : Il existe une forme musicale partout rencontrée dans l’histoire de la musique : le déplacement (retardement) temporel d’un signal. Le canon en est le représentant le plus populaire. Un motif se répète, transposé temporellement, dans plusieurs voix ; une stratification s’élabore : d’un lied on obtient presque une polyphonie. Nous pouvons aujourd’hui, à l’aide de l’électronique, retarder le déroulement musical de 0,2 à 60 secondes, le rappeler une fois (écho), ou le concentrer en une stratification pouvant aller jusqu’à 16 voix. Si un signal 1 est transformé électroniquement (par filtre ou modulateur), transposé temporellement de 3 secondes, puis remélangé à l’original, nous pourrons alors entendre leur qualité sonore respective de manière plus sélective. Cela se remarque avant tout pour les mouvements sonores de grande importance.
39Il sera question, pour finir, de réalisation musicale en studio électronique : notre travail se porte, comme nous l’avons déjà dit, en premier lieu sur ce qui a été justement appelé transformation électronique du son, qui n’exclut pas la réalisation de bandes de musique synthétique. On ne peut pas parler de notre studio expérimental de Freiburg comme d’un studio de travail au sens traditionnel. Une partie de notre activité consiste en l’élaboration d’un instrumentarium spécial pour la transformation électronique du son, chez nous ou dans d’autres studios. Une communication permanente entre les réalisateurs et notre studio est nécessaire, car c’est justement lors de l’essai de nouveaux appareils que l’on s’aperçoit que les bons résultats de la physique ne se prêtent pas toujours à une mise en pratique musicale.
40Le processus de test est spécifique du travail de notre studio et n’est pas limité dans le temps, car commence à ce moment la collaboration avec les compositeurs, les auteurs et tous ceux qui s’intéressent au studio expérimental. Notre mission principale est d’établir une communication entre ingénieurs et musiciens, entre technique et pratique. Ce qui ne veut pas dire que nous autres techniciens, instruisons les musiciens, ou à l’inverse, que les musiciens instruisent les techniciens ; il s’agit plutôt d’une information réciproque qui nous permet de trouver un langage commun.
41Rudi Strauss, Bernd Noll et moi « travaillons » nos instruments – nous faisons nos « gammes ». Luigi Nono vient dans notre studio et nous jouons pour lui de nos instruments. Il (Nono) écoute et pose des questions, nous répondons – explication et discussion – un dialogue prend forme. Le compositeur améliore nos gammes, nous modifions nos instruments – un nouveau dialogue en résulte. Le compositeur commence à jouer parmi nous, surgit une communication créative, une nouvelle composition, une nouvelle technique de jeu. Il va sans dire que, lors de cette prise de contact avec les appareils, si cela est nécessaire, nous parlons aussi de connaissances acoustiques de base.
42La sélection du son comme forme musicale expressive n’est pas réalisable sans connaissances dans le domaine de l’analyse spectrale, des lois de timbre et de la théorie des formants. Après une première visite informative, Nono commence chez lui son travail de composition. Après quelques semaines il revient avec ses esquisses et commence à élaborer son œuvre plus en détail. Les questions de notation sont clarifiées ; des instruments de musique restent à disposition à côté des appareils électroniques pour les essais pratiques. La plupart du temps, la partition finale se réalise après cette deuxième visite ; le travail en studio est pour le compositeur et pour nous-mêmes terminé, car la réalisation de son œuvre se passe maintenant, abstraction faite des essais préliminaires, en dehors de notre espace, dans de nouveaux espaces, avec de nouvelles données acoustiques que nous devons à nouveau étudier et explorer.
43Transformation sonore, espace sonore, espace-temps, déplacement sonore, ne veulent pas dire aujourd’hui rigidité du son prolongé électroniquement, mais interprétation individuelle. Les appareils électro-acoustiques deviennent de véritables instruments sur lesquels il est possible de jouer.
Notes de fin
* Version modifiée d’un texte paru pour la première fois dans Verso Prometeo, La Biennale/Ricordi, Venise 1984.
Le texte seul est utilisable sous licence Licence OpenEdition Books. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.
Regards croisés sur Bernd Alois Zimmermann
Actes du colloque de Strasbourg 2010
Philippe Albèra, Pierre Michel et Heribert Henrich (dir.)
2012
Pierre Boulez, Techniques d'écriture et enjeux esthétiques
Jean-Louis Leleu et Pascal Decroupet (dir.)
2006
Karlheinz Stockhausen. Montag aus Licht
Revue Contrechamps / numéro spécial
Philippe Albèra (dir.)
1988