La musique electronique


Le magnétophone offrait aux musiciens la possibilité d'enregistrer des bruits et de les utiliser à leur guise.
Les ordinateurs et les synthétiseurs analogiques vont apporter aux compositeurs et musiciens une autre révolution musicale : la possibilité de composer leur propre matière sonore.

En 1942, John Cage écrivait :

"Bien des musiciens rêvent de boîtes technologiques compactes, desquelles tous sons perceptibles y compris du bruit sortiraient au gré des envies"

Hiller et Isaacson présentent en 1956 leurs premiers travaux ; il s’agit d’une composition assistée par ordinateur : Illiac Suite pour quatuor à cordes,
Cette œuvre est née au sein d'un studio du centre de recherches en informatique de l'Université d'Illinois. Les premiers essais sérieux de composition musicale par ordinateur sont effectués sur l'ordinateur Illiac I d’IBM.

 



Pourtant, la machine n’est pas à l’origine du son. La base reste le quatuor à cordes. Il existe donc une autre activité à l'origine de l'informatique musicale : la Production de Son.
Et en ce sens, le pionnier de la synthèse des sons par ordinateur est le musicien et ingénieur électronicien Max Mathews.

Le premier son généré par ordinateur est entendu en 1957 aux laboratoires d'acoustique et de psychologie de la compagnie Bell AT&T à Murray Hill, dans le New-Jersey grâce au logiciel générateur de son : Music I sur un IBM 7040.
Le 17 mai 1957, le psychologue Newman Guttman crée In the Silver Scale, la toute première œuvre de musique électronique d'une durée de 15 secondes,
et 3 ans plus tard il sort le premier disque de musique créée sur ordinateur : Music from mathematics.
Ce disque contient, entre autres, la première chanson informatique intitulée : Bicycle Built for Two rendue célèbre par le film de Stanley Kubrick 2001, Odyssée de l'espace. Rappelez-vous, la machine qui chante.

In the Silver Scale

 

 

Album Music from mathematics

 

Bicycle Built for Two

 

 

Bicycle Built for Two

Avec Max Mathews en démonstration publique

 

 

Dans le film de Stanley Kubrick

 

 


Par la suite, de nombreux compositeurs comme John Cage ou Iannis Xenakis, composent sur ces premiers logiciels.

En 1968, "Bell Telephone Laboratories" lance Music V, un logiciel de synthèse organisé en système modulaire de générateurs de son. Music V est aujourd'hui encore, à la base de nombreux programmes de synthèse sonore.
Le Système Groove mis au point par Max Mathews et Richard Moore en 1967, est le premier système informatique de composition en temps réel.
Il est utilisé par Laurie Spiegel dans Appalachian Grove en 1974 et Emmanuel Ghent dans Phosphones 1971 au cours des années 70, puis plus tard par Pierre Boulez.

 

Appalachian Grove

 

Dans ce domaine, Jean-Claude Risset, compositeur français tient une place importante. Etudiant en physique en France, il décide d'écrire sa thèse sur les recherches de Max Mathews.
Il se rend donc aux laboratoires Bell en 1964, pour débuter ses recherches sur le timbre et compose successivement : Little Boy en 1968 et Mutations I en 1969.
En tant que compositeur, Jean-Claude Risset a innové dans la synthèse des timbres : non content de composer avec des sons, il construit le son lui-même.
Mutations est une pièce pour bande magnétique entièrement constituée de sons synthétisés par ordinateur.

Computer Suite From Little Boy

II. Fall

 

 III. Contra-Apotheosis

 

 

Mutations I (1969)

 

Mutations II (1977)

 


Il a illustré cette approche dans de nombreuses œuvres électroacoustiques. Certaines pièces tirent parti d’illusions auditives et d’imitations instrumentales. Il s’est également tourné vers le traitement numérique des sons enregistrés. Au Media Lab du Massachussets Institute of Technology puis à Marseille, il a par ailleurs développé une approche originale de l’interaction temps-réel entre pianiste et ordinateur, tirant parti d'un logiciel qui saisit les gestes de l’interprète et joue en contrepoint sur le même piano acoustique comme un accompagnateur sensible.
Il a composé et enregistré sur CD de nombreuses œuvres pour instruments, voix, sons d’ordinateur et œuvres mixtes.

En 1974, l'IRCAM est créé à Paris et Jean-Claude Risset est nommé chef du département de musique d'ordinateur.

L'IRCAM, Institut de Recherche et de Coordination Acoustique/Musique, est un centre de recherche au service des compositeurs où sont créés des logiciels de synthèse sonore, de spatialisation et de notation. Mais la pièce manquante voit le jour en 1964 dans les studios du San Francisco Tape Music Center !
En effet, l'arrivée des premiers synthétiseurs modulaires, dits "analogiques" bouleverse de nouveau la conception musicale : les connaissances poussées ne sont plus nécessaires, tout devient aisément accessible.
En 1964, trois synthétiseurs analogiques basés sur la commande par tension des oscillateurs, amplificateurs et filtres, sont inventés par un électronicien de formation : Robert Moog.

Ces nouveaux synthétiseurs modulaires permettent de créer, filtrer et modifier aisément des sons électroniques mais également de disposer d'une palette de sonorités et d'effets résolument novateurs pour l'époque.

Un an auparavant, Robert Moog rencontrait le compositeur Herb Deutsch.

Lisons ce souvenir :

"J'ai rencontré un musicien qui m'a demandé si je connaissais quelque chose en musique électronique. Il s'appelait Robert Deutsch. Il m'a invité à un de ses concerts afin que je puisse écouter sa musique. Peu après, nous avons décidé de collaborer. J'ai alors construit de petits circuits électroniques pour qu'il puisse créer les sons qu'il voulait. Il a pris ces circuits, et en travaillant avec un magnétophone, il a créé une nouvelle musique. C'est de ces premières expériences qu'est né le synthétiseur analogique et modulaire : le Moog".

 



Le changement révolutionnaire qu'apporte le synthétiseur Moog réside dans la commande par tension de l'oscillateur, du filtre et de l'amplificateur : tout devient plus rapide, plus précis, automatique.
Le succès du Moog est immédiat et beaucoup de compositeurs s'en servent pour réaliser des musiques de films de science-fiction ou des indicatifs d'émissions de télévision. Dès 1967, le synthétiseur Moog System 1 est construit en série.

 



Les années 1970 voient arriver sur le marché une multitude d'instruments électroniques. Les plus connus sont les Roland, Yamaha, Synthi, Moog…

Et le numérique fait son apparition en 1972.

En effet, en 1972, Jon Appleton et Sydney Alonso construisent le premier synthétiseur numérique, placé sous le contrôle d'un ordinateur, à Hanover, aux Etats-Unis :

le Dartmouth Digital Synthesizer.


Les premiers instruments de musique entièrement numériques sont ainsi le Synclavier en 1977, et le Fairlight CMI (Computer Musical Instrument) en 1979.

Ecoutons comment sonne le synclavier, l’instrument de prédilection de Michel Redolfi dans un extrait de Pacific Tubular Waves, une de ses œuvres.

  

 

Ce dernier est le premier véritable échantillonneur numérique du commerce : une révolution pour le monde de la musique électronique. Il est alors possible de créer et modifier des sons en direct sur un moniteur. Malgré le prix exorbitant du Fairlight CMI, l'échantillonnage numérique deviendra rapidement à la portée de tous les musiciens.

A la fin des années 1970, les synthétiseurs numériques sont également en cours de développement à l'IRCAM avec la série des 4A, 4B, 4C et la 4X mise au point par Giuseppe Di Giugno en 1981 sous l'impulsion de Pierre Boulez.

La célèbre 4X permet de synthétiser ou de resynthétiser le son après analyse d’une manière puissante. Elle permet rapidement aussi de réagir en temps-réel au jeu d’un instrumentiste et donc de renouveler considérablement la musique mixte.

Dans Jupiter, de Philippe Manoury, en 1987, la flûte est connectée à la 4X pour explorer les possibilités de dialogue entre l’instrument et la machine.

 

Répons de Pierre Boulez (aller à la huitième minute)

 

 

Dans les années 80, les recherches musicales s'orientent vers le traitement du son en temps réel. Au studio GRM, c’est-à-dire, le groupe de recherche musicale, Jean François Allouis travaille sur un système de synthèse digitale. En 1982, le SYTER, c’est-à-dire, le SYstème en TEmps Réel, est commercialisé. Le développement se poursuit en 1988 avec Hugues Vinet qui adapte le système pour les plate-formes Macintosh.
A la même époque on assiste au développement du logiciel Max et du Yamaha Disklavier.
Au milieu des années 80, les premiers ordinateurs intégrant la norme MIDI apparaissent : l'Amiga et surtout l'Atari ST. Ces nouveaux outils préfigurent l'avènement progressif des "stations de travail" ou "home studio".

Symphonie au bord d'un paysage, Jacques Lejeune, 1983

 

Il faudra pourtant attendre 1983 pour que la norme MIDI, cette norme d'interface, permette aux différents instruments de musique électronique de marques et modèles différents de communiquer entre eux.

En 1983, Yamaha présente le synthétiseur DX7, intégrant l'innovation MIDI, pour un prix abordable. Le succès commercial est immédiat et sans précédent !
Et enfin, le micro-ordinateur domestique est désormais plus puissant que la grosse machine de la décennie précédente. On peut composer chez soi sans formation spécifique.

La croissance vertigineuse des capacités des micro-ordinateurs rend accessible au plus grand nombre des outils logiciels d’une puissance inenvisageable il y a peu, permettant une intégration dans la même machine de tous les outils souhaités par le musicien : outils d’analyse et aide à la composition, outils audio-numériques d’enregistrement, montage et mixage, outils d’analyse spectrale, synthèse, re-synthèse ou transformations sonores les plus sophistiquées, outils de représentation graphique, et enfin outils d’interaction temps-réel, (suivi de partition, par exemple.

La pratique musicale se fait dorénavant à domicile, la plupart des compositeurs étant équipés d’un home studio.
Les studios institutionnels ou associatifs ne sont plus les lieux incontournables pour produire de la musique nouvelle. Ils demeurent en revanche le lieu privilégié de l’échange, de la communication et de la diffusion entre les différents acteurs de la vie musicale.
Le mouvement grandissant de la Techno donne à voir dans les concerts une musique de machines, sans instrumentiste, où le maître d’œuvre est le disc jockey.
Mais n’oublions pas que ces musiciens techno se recommandent de Pierre Schaeffer et de Pierre Henry car ils voient en eux les premiers à jouer de la boucle, du disque et des machines électroacoustiques.

D’ailleurs, dans Saphir, Sillions, Silence, de Christian Zanési, composé en 1998, l’outil thématique de base est le disque noir, le micro sillon sur lequel on pose le saphir. On retrouve là le principe du sillon fermé, né 50 ans auparavant, comme un hommage.

Saphir, Sillions, Silence, Christian Zanesi, 1998 :

Globalement le son des années 90 a lui aussi changé. Il intègre à la fois, grâce aux échantillonneurs, les sonorités des différentes traditions musicales de toute la planète dans un désir d’échange et de mélange. Après Saphir, Sillons, Silence de Christian Zanési, on se laisse envahir par des références exotiques de tout ordre dans Terra Incognita, œuvre de Denis Dufour. On perçoit même un extrait de la fameuse œuvre de Vangelis, alors que Gérard Depardieu, alias Christophe Colomb, débarque au Nouveau Monde.

Terra Incognita, Denis Dufour, 1998 :

Outre la création musicale, un problème particulièrement important envenime les compositeurs : le problème de la diffusion. En effet, l’être humain perçoit une multiplicité de sources sonores dans l’espace, parce qu’il a deux oreilles.
Le haut-parleur monophonique ne peut rendre compte de l’espace. La stéréophonie tente de résoudre ce problème. Avec deux voies sonores, la perception de localisation sur un axe devient possible. La musique électroacoustique, est tributaire des moyens de sa reproduction sonore, qui font appel, à des transducteurs comme le haut-parleur, par exemple.

Le haut-parleur est le mal-aimé de la chaîne électroacoustique : jamais assez puissant ni assez fidèle, toujours trop encombrant, il ne couvre même pas à lui tout seul la plage de fréquences entendues par l’oreille humaine. Il n’est donc jamais unique, mais associé avec plusieurs unités spécialisées (grave, médium, aiguë).

Ainsi, François Bayle et Jean-Claude Lallemand imagine l’Acousmonium, orchestre de projecteurs sonores conçu en 1973 et destiné à l’interprétation en concert des musiques acousmatiques et électroacoustiques. Il est composé d’une soixantaine de haut-parleurs organisés en régions dans l’aire acoustique, déterminant des “écrans sonores”, des échelles de calibres, des plans d’espace.

Ces recherches ont mené à une approches intéressante, notamment pour l’écoute des films à grand spectacle : par exemple deux voies de stéréophonie principale, des voies subsidiaires de qualité ou importance moindre, et d’autres spécialisées dans l’infragrave, dispositif que l’on connaît sous le standard 5.1, c’est-à-dire, cinq voies plus une grave, dont certains d’entre-vous profitent grâce à leur home-cinéma.
Même si le contrôle rigoureux de l’espace semble illusoire à atteindre, le confort apporté est appréciable.

Mais les recherches dans ce domaines n’ont pas abouti. Il faudrait une solution pour chaque situation de diffusion : concert, radio ou écoute domestique.

Petit tour vers la naissance du Hip-Hop, la musique des boucles et des DJ (avec leurs samplers)