top of page
Rechercher

Débauche de synthétiseurs


Dès lors, de nombreuses firmes vont s'engouffrer dans la brèche à la fin des années soixante puis durant les années soixante-dix.

Parmi elles, il faut citer Electronic Music Studios, société de Peter Zinovieff, à Londres (Synthi VCS3 « Putney » en 1969, Synthi A Portabella et Synthi AKS, 1971, Synthi 100 « Delaware » , 1974). ARP, la société d'Alan R. Pearlman aux États-Unis (dont la marque est l'acronyme), tient aussi une place importante (ARP 2500, 1970, ARP 2600, 1971 et surtout le ARP 2800 Odyssey I, 1972), de même que Palm Products GmbH (PPG) à partir de 1978. Oberheim est la première société qui commercialise des synthétiseurs polyphoniques, capables de jouer plusieurs notes en même temps (la série OB, à partir du OB-X en 1978). Il faut aussi citer le Prophet 5 (1978, Sequential Circuits), mais aussi les firmes japonaises qui vont envahir le marché dès 1973: Korg et Roland. Ce sera plus tard au tour de Yamaha de jouer un rôle considérable.


La plupart de ces firmes commercialisent aussi dans le même temps divers séquenceurs qui permettent aux interprètes de programmer de courtes cellules mélodico-rythmiques (la mémoire est en effet encore limitée sur ces séquenceurs matriciels) qu'ils font ensuite jouer en boucle. Leurs mains sont alors libres de moduler le son à l'aide des différents potentiomètres et instruments de réglage à leur disposition, créant une musique basée sur la matière sonore plus que sur la hauteur (ou la mélodie). Le geste compositionnel est ainsi profondément influencé par l'instrument. On The Run de Pink Floyd, sur l'album The Dark Side Of The Moon (1973), est un des meilleurs exemples de cette utilisation. Il présente une boucle répétée à l'infini dont le timbre évolue tout au long du morceau.

Durant cette période, les synthétiseurs se diversifient, ils se spécialisent aussi, surtout destinés dans ce cas au marché de la musique populaire. Dans ce cadre, ils se couplent aussi souvent à des séquenceurs intégrés, comme dans le cas des boîtes à rythmes, permettant l'imitation synthétique de sons de batterie et de percussion, ou dans celui des bassliners (générant des lignes de basse). Les constructeurs mettent en place différents systèmes de communication entre leurs instruments, mais il n'y a pas encore de norme générale.


Ce sont les années quatre-vingt qui vont marquer ce passage, ainsi que le basculement dans le domaine de la synthèse numérique.


La recherche continue...


Cet engouement populaire pour la synthèse sonore ne doit pas faire oublier que la recherche scientifique, en laboratoire, continue son chemin. De ce point de vue, on peut relever les expériences du Français Jean-Claude Risset à la fin des années soixante, qui met en évidence, dans les laboratoires Bell (États-Unis), grâce aux technologies informatiques, le phénomène de la hauteur spectrale d'un son, faisant progresser d'un grand pas l'acoustique contemporaine. Il explique ainsi pourquoi certains instruments sonnent à nos oreilles plus aigus ou plus graves que d'autres à hauteur (tonale) égale, ou pourquoi le filtrage d'un son (qui ne bouge pas en hauteur) peut lui donner une texture plus grave ou plus aiguë: il S'agit d'un phénomène acoustique complexe, déterminé par le centre de gravité des différentes enveloppes des harmoniques composant un son (leur vie dans le temps étant très différente d'un son à l'autre). Le timbre d'un son a donc... une hauteur! Cela répond aussi à la question de l'imitation des instruments par synthèse sonore: les essais, jusque-là, alors qu'ils donnaient parfois des résultats satisfaisants, pouvaient aussi se révéler extrêmement décevants (particulièrement dans le cas des cuivres et des violons). On se rend compte alors que leur timbre est bien plus complexe à définir qu'on ne l'imaginait alors.


Risset en tirera différentes expériences sonores intéressantes dans le cadre des illusions auditives (un son qui donne la sensation de monter à l'infini alors qu'il reste à la même hauteur, ou celle de monter en accélérant alors qu'il descend en ralentissant). On peut notamment en entendre quelques exemples dans son Oeuvre Mutations (1969). Beaucoup de synthétiseurs, par la suite, reprendront ces données pour les exploiter commercialement.



John Chowning invente un nouveau type de synthèse sonore en 1971 à Standford : la synthèse par modulation de fréquences (synthèse FM). Si cette synthèse est théoriquement possible sur synthétiseur analogique, seule la précision du numérique permet d'en tirer des résultats intéressants. Jusqu'alors, deux voies étaient empruntées dans le domaine de la synthèse. Tout d'abord, celle de la synthèse additive, principalement en centre de recherche parce que contraignante à réaliser (on superpose des ondes sinusoïdales simples afin d'obtenir des sons riches). Seuls quelques synthétiseurs sur le marché donnent accès au public à ce type de synthèse (la marque Kawai principalement). Ensuite, celle de la synthèse soustractive, utilisée par tous les synthétiseurs commercialisés dont il a été question ci-dessus: des sons riches sont sculptés comme de la matière brute au moyen de filtrages (passe- haut, passe-bas, passe-bande ou coupe-bande). La synthèse FM met en évidence le fait qu'une onde porteuse sinusoïdale (la plus simple et la plus pauvre des ondes sonores possibles) peut être largement enrichie par l'injection d'une modulation de fréquence (une autre onde sinusoïdale). Comme toujours, suivant la règle que nous observons depuis le début de ce parcours dans l'histoire des technologies électroniques au XXe siècle, le principe sera par la suite largement exploité, plus tard, pour des ventes massives d'objets industrialisés destinées au grand public (et surtout avec le Yamaha DX7 en 1983).



En laboratoire, la course au son numérique se poursuit. Il faut citer les expériences de Jon Appleton et de Sydney Alonso qui sont à l'origine du premier synthétiseur numérique public de l'histoire, débuté en 1972, mais commercialisé en 1977: le Synclavier (synthèse FM et additive).


Le compositeur Iannis Xenakis met au point l'UPIC (pour Unité Polyagogique Informatique du CEMAMu), premier synthétiseur graphique, en 1977 à Paris au Centre d'Etudes de Mathématiques et Automatique Musicales (CEMAMu, qu'il a fondé en 1965). En dessinant une onde, on en obtient sa restitution sonore. L'UPIC parviendra en 1987 à une version en temps réel. Cette voie sera par la suite suivie par de nombreux logiciels de synthèse sonore, tel MetaSynth.


L'lrcam (Institut de Recherche et Coordination Acoustique/ Musique), fondé en 1977 par Pierre Boulez, travaille à la conception de synthétiseurs numériques surpuissants, alliant différentes technologies (enregistrement numérique, synthèse additive etc.). Après la série 4A, 4B, 4C, le 4X de Giuseppe Di Giugno voit le jour en 1979. Parmi les oeuvres les plus importantes réalisées autour de cet instrument, Repons de Pierre Boulez (1981-1984) et Kathinkas Gesang als Luzifers Requiem de Karlheinz Stockhausen (1983). Le GRM (Groupe de Recherches Musicales, héritier du GRMC) n'est pas en reste avec le programme SYTER (lancé en 1978 par Jean-François Allouis) et plus tard avec les GRM Tools (1988, Hugues Vinet).


De nombreuses autres institutions sont créées et travaillent dans leurs voies (notamment, en France, le GMEB, Groupe de Musique Expérimentale de Bourges, en 1970; le GMEM, Groupe de Musique Expérimentale de Marseille, en 1972 ; le CIRM, Centre International de Recherche Musicale, en 1978 à Nice).


La suite tout bientôt ;-)

24 vues0 commentaire
bottom of page