Accueil > La Médiathèque > Collections > Séances publiques > Ouverture du cycle national 2013-2014 > La musique à l’heure du numérique : science de l’imitation ou révolution (...)

Enregistrer au format PDF

Ouverture officielle

La musique à l’heure du numérique : science de l’imitation ou révolution créative ?

Mercredi 16 octobre 2013

Laurent de WILDE, compositeur, pianiste de jazz, écrivain


Laurent De Wilde - La musique à l’heure du... par IHEST

Le numérique est apparu en musique aux États-Unis en 1957 quand la compagnie RCA crée un ordinateur (le fameux Music I) spécialement dédié à la production du son. Il s’agit d’une énorme machine aussi belle que nos supercalculateurs actuels. Il est amusant de remarquer que, quel que soit le degré de progrès, on aboutit toujours à de gigantesques armoires dont on est très fiers ! On se renouvelle très peu. Si la puissance augmente, l’imaginaire n’augmente pas nécessairement en proportion. Le Music I fonctionnait avec des fiches perforées, rappelant les pianos mécaniques, ces sortes d’ordinateurs à faire de la musique avant l’heure.

A la fin des années 50 et au début des années 60, émerge une volonté radicale d’utiliser un langage binaire pour exprimer de la musique. Je dis bien « exprimer », car l’arrivée du numérique modifiera considérablement ce point de vue. A la même époque, la synthèse du son analogique à l’aide d’oscillateurs qui créent des formes d’ondes se développe. Pour ceux qui étaient impliqués dans le développement synthétique analogique de la musique, le Music I, cette énorme armoire qui mangeait des cartes perforées, était d’un ridicule consommé.

Pendant les années 60 et une partie des années 70, la synthèse du son analogique se développe à très grande vitesse avec des synthétiseurs, c’est-à-dire des instruments capables de produire des ondes sonores. Les synthétiseurs ne sont pas une invention des années 60. Lee De Forest, l’inventeur de la triode qui a permis la progression de la radio au début du XXe siècle, avait également inventé l’audion, un petit instrument associant un oscillateur à chaque note de son clavier. A ce titre, il est souvent considéré comme l’inventeur du premier synthétiseur. Cette invention est restée confidentielle jusqu’à ce que l’après-guerre crée un climat de consommation musicale très différent aux États-Unis.

La synthèse analogique du son est arrivée à un point tel, qu’à la fin des années 70 se pose un problème de place : le circuit électrique véhiculant le son devient trop complexe si l’on veut que les synthétiseurs répondent aux attentes. En 1978, Dave Smith, en collaboration avec Dave Rossum, invente une puce à placer dans le circuit électrique d’un synthétiseur (le Prophet-5). Dès lors, l’implantation du calcul numérique à l’intérieur d’un processus analogique est devenue une réalité quotidienne. Ce processus était amené à se développer à grande allure et dès le début des années 80, le tout numérique commençant à surgir.

1982 est marquée par la sortie du disque compact qui va bouleverser l’industrie musicale en impactant à la fois la technologie, la consommation et la création de musique. Tout au long du XXe siècle, les formats de supports de la musique avaient été l’objet d’une compétition acharnée entre différents labels. Chaque label lançait un nouveau standard dans l’intention d’écraser les précédents et de l’imposer comme unique standard utilisé. Au début des années 80, les 5 majors du disque se sont accordées sur le prochain format. Sony, Phillips et Toshiba ont donc déposé en 1982 le brevet du disque compact. C’était un coup bas industriel puisqu’il s’agissait d’une entente interdite par les lois antitrust américaines. Toutefois, on ne peut que se réjouir du fait que cette entente a abouti à la création d’un support qui reste encore valide aujourd’hui et que l’on utilise toujours. A l’origine, le compact disque est un support informatique et non musical. C’est Hitachi qui a développé l’application pour l’utiliser afin d’écouter de la musique.

JPEG - 130.1 ko

Les luttes entre labels pour imposer un nouveau standard n’avaient plus lieu d’être. L’imposition de ce standard a encadré le marché de telle façon qu’on ne pouvait plus y échapper. Les arguments de vente du CD ne manquaient pas : les vinyles et les cassettes s’abimaient ; le numérique reproduisait à l’identique l’analogique et était reproductible à l’infini. Vous pouviez jeter vos vinyles pour les remplacer par des CD puis continuer d’acheter les nouvelles productions en CD. Les compagnies de disques ont très habilement orchestré l’arrivée du CD : ce produit étant une nouveauté technologique, cela justifiait qu’elles le commercialisent plus cher que le vinyle, alors même que les matériaux utilisés (le boitier cristal par exemple) étaient bon marché et que cela leur revenait moins cher de fabriquer un CD qu’un vinyle ! Les profits de cette industrie se sont donc très rapidement envolés et les années 80-90 ont marqué l’apogée économique des grands labels de production musicale. Ils se retrouvaient assis sur une fortune qu’ils ne pouvaient plus dépenser en R&D et l’ont donc consacrée au marketing. Aujourd’hui, on a atteint une sorte de point de non retour où le marketing représente la majorité des coûts de production. Les coûts de fabrication d’un CD sont largement inférieurs aux coûts de marketing. Les concurrents utilisant des outils marketing pour vendre leur musique, chaque label doit user des mêmes outils marketing en y consacrant les mêmes budgets s’il veut rester dans la course. L’industrie de la musique s’est déplacée d’un univers technologique à un univers commercial. La révolution du CD a également eu pour conséquence l’invention des disques « d’avocats » ! Alors que les compilations n’existaient que de manière artisanale à l’époque du vinyle, elles sont devenues une véritable manne financière sous l’ère du CD. Ces compilations sont des albums d’avocats car elles ne requièrent pas la participation des artistes mais simplement l’acquisition de droits de réédition. Tout se passe entre gens du métier.

Le marché musical a redéfini l’imaginaire collectif autour de la musique par le numérique (imaginaire d’idéal technologique grâce à la captation prétendument parfaite du son) et également par le marketing (imaginaire défini par les vendeurs et non plus par les acheteurs).

L’irruption du numérique dans l’industrie de la musique a constitué un levier de contrôle très important. En premier lieu, et de manière ironique, dans la perte de contrôle ! A la fin des années 90, apparaît l’internet, une révolution que les majors n’avaient pas prévue en partie parce que leurs recherches étaient au point mort. Ce nouvel outil de communication permettait de tirer partie du digital, non pas parce qu’il permet d’imiter l’analogique mais parce qu’il permet de reproduire la musique à l’infini. Soudainement, l’industrie du disque s’est rendue compte horrifiée de ce que voulait dire « reproductible à l’infini ». Ainsi, au début des années 2000 (l’arrivée de l’ADSL dans les foyers français date de 2003), le marché de la musique connaît un effondrement dramatique qui aboutit à une contraction de 50 %. Il semblerait que cette économie soit aujourd’hui arrivée à son étiage le plus bas même si l’on ne sait pas ce que l’avenir nous réserve. Internet a permis à l’information numérique de voyager de façon complètement incontrôlée.

La réaction de l’industrie a été instructive : il n’a été question que de procès, d’interdictions, de verrouillage, de serrage de vis, ce qui est aussi ridicule que Cyrus faisant fouetter la mer qui a englouti ses navires de guerre pour se venger. Cette attitude aussi vieille que l’homme ne résout pas plus les problèmes aujourd’hui qu’hier. Dans l’historique socio-commercial de la musique, nous sommes actuellement à un point très flottant. Ce que nous attendons de la consommation et de la production de musique demeure indéfini. Il faut donc maintenant s’interroger sur la numérisation de la musique.

Qu’est-ce que la numérisation du son ?

Le son est une vibration de l’air qui se propage. J’ai toujours été surpris que la loi de propagation du son ait été découverte tardivement (dans la deuxième moitié du XIXe siècle) alors que le phénomène acoustique est d’une simplicité quasi biblique. Le courant électrique que l’on applique au son ne fait que véhiculer un phénomène naturel : l’onde se propage en continu jusqu’à un récepteur. L’électricité et l’électronique ne servent que de véhicules à la transmission de ces ondes.

Que fait le numérique ? Il prend une « photo » du son à un instant t et le coupe en tranches. Le format du CD est 44 100 Hz pour une seconde, c’est-à-dire qu’une seconde de son est découpée en 44 100 tranches. L’Audio Engineering Society aux États-Unis a décrété de façon un peu arbitraire mais néanmoins physiologiquement fondée que l’audition humaine était capable d’appréhender des fréquences entre 20 Hz et 22 050 Hz. Une onde sonore peut être représentée par une sinusoïdale. Dans un contexte électrique, cette oscillation est calculée en différentiel de tension (en volts). La captation du son analogique est un aller-retour au-dessus et en-dessous de la ligne du zéro volt. Les 44 100 Hz représentent les tranches. Les 16 bits utilisés pour le CD représentent la finesse d’analyse de la dynamique que l’on a sur ces tranches, c’est-à-dire quelle est la hauteur positive ou négative par rapport au 0 de cet instant t du son. Le théorème de Shannon énonce qu’il faut au moins deux points, un haut et un bas, pour définir chaque tranche de son et restituer une dynamique sonore. La capacité maximale de l’audition humaine étant évaluée à 22 050 Hz, il faut 44 100 Hz de taille de tranches.

Le nombre de bits a évolué au fil du temps passant de 4 à 8 puis 16 bits. Le nombre de tranches, c’est-à-dire la fréquence d’échantillonnage, a également augmenté à 48 kHz puis 96 kHz. Plus on fait des tranches fines, plus on a une représentation fidèle de la courbe sonore de l’onde. Plus on a de bits, plus on a de points de repère verticaux qui permettent de définir la dynamique du son dans un instant t.
La numérisation du son renferme une notion d’imaginaire. Elle est quelque part semblable à ces dessins où il faut relier les points entre eux. L’analyse numérique crée une discontinuité alors que le son est un signal ininterrompu. L’analyse numérique fonctionne sur le mode du stop and go. Elle s’arrête sur un 44 100e de son. La digitalisation dans un temps continu consiste à relier ces points les uns aux autres. Avec 44 000 ou 96 000 tranches dans une seconde de son, on pourrait penser qu’il n’y a pas de différence avec le son analogique. Et bien si ! Le scientifique qui met au point un système de digitalisation du son fait imaginer à la machine ce petit trajet qui sépare un point du suivant. On part du principe que ces points sont tellement proches qu’ils sont reliés par une ligne droite mais dans la réalité, ce n’est jamais une ligne droite. On peut avoir une courbe totalement irrationnelle entre deux 44 100e de seconde. Un imaginaire scientifique est donc appelé à la rescousse pour reproduire une continuité de son qui n’existe qu’en tranches sous forme numérique. Cette continuité est essentielle. Quel que soit l’outil digital, son effet est forcément analogique puisque notre oreille est analogique (elle réagit à des vibrations de l’air). Le travail du scientifique consiste à fournir un graphe suffisamment proche de l’onde réelle pour être convaincant.

L’effort de l’analyse digitale repose essentiellement au départ sur l’imitation, une imitation qui soit convaincante et dont on a une validation immédiate par la comparaison avec l’analogique. La qualité des convertisseurs audionumériques dépend en grande partie de cette capacité d’imagination de la machine à recréer une onde qu’elle ne voit qu’en tranches. C’est une première règle invariable du son numérique.
Une deuxième découverte intéressante est que le maximum d’intensité du son numérique consiste en une série de 1 et de 0. Or, en analogique, on n’est jamais au maximum sauf à faire disjoncter son ampli. Mais en numérique, l’intensité de son la plus difficile à restituer n’est pas la saturation mais le silence. Dans les débuts de l’analyse digitale, toutes les intensités de sons étaient considérées comme équivalentes et on découpait la sinusoïde tranches latérales égales (les fameux bits). On s’est par la suite aperçu que vers la saturation, la différence audible était quasiment insignifiante et que l’on perdait donc des bits à essayer d’analyser cette section. Ces derniers temps on a déplacé l’échelle de 18 db vers le bas pour pouvoir utiliser la puissance d’analyse digitale et rendre de façon plus effective l’imitation du son dans son silence. Le silence est l’endroit de l’imaginaire en musique. C’est un endroit où la résonnance, l’attente du son suivant forment une sorte de nébuleuse esthétique et émotionnelle essentielle à l’appréhension que l’on a de la musique. Le numérique s’est rendu compte qu’il fallait déplacer son focus d’analyse pour rendre compte de la réalité du son.

L’effet pervers de cet effort de digitalisation est que l’industrie musicale s’est tournée massivement vers l’imitation. La reproduction digitale du son visait la copie la plus conforme possible. Quand la digitalisation est arrivée dans les outils musicaux, les musiciens pouvaient acquérir grâce à leur ordinateur la reproduction numérique de sons de studios d’enregistrement qui valaient plusieurs dizaines de millions de francs avant. Combinée au développement d’internet, cette possibilité a contribué à une démocratisation rapide de la créativité en matière de musique.

L’effort de modélisation s’est entièrement porté sur la reproduction à l’identique manifestant une sorte de défaut de l’imaginaire. Comme si le numérique ne permettait que de reproduire ce qui existe déjà en un peu moins bien puisqu’il ne peut pas y avoir d’image parfaite du son analogique.
Je voulais vous parler également de l’irruption de l’échantillon. L’échantillon est en quelque sorte l’accident qui crée la création. En enregistrant le son de façon digitale, on est tombé sur un nouveau jouet : l’échantillon. Cette découverte, couplée à la grande diffusion des moyens informatiques personnels pour traficoter le son, a conduit à l’utilisation de l’échantillon pour la création. Un échantillon est un bout de son qui peut servir à des fins d’imitation mais aussi de création. Ray Kurzweil a créé l’un des premiers échantillonneurs qui met sous les doigts un orchestre symphonique. L’idée est d’enregistrer chaque note de chaque instrument sous forme d’échantillons qui sont ensuite commandés par un clavier. Elle n’est pas neuve puisqu’elle existait déjà en analogique comme par exemple avec le Mellotron. Ce qui me frappe le plus dans le développement de l’imaginaire et de la création en numérique, c’est qu’il ne fait que poursuivre les expériences de musique concrète sur des bandes magnétiques. L’industrie numérique ne fait que prolonger un désir d’utilisation de la matière sonore qui préexiste à l’homme depuis longtemps et qui a explosée depuis le début du XXe siècle.

A l’origine, on s’est servi de l’échantillon pour la reproduction et ensuite à des fins expérimentales. Cela a donné le hip-hop par exemple. Tous les fonds de hip-hop sont des échantillons. Ce son a un contenu émotionnel qui réapparait digitalement. Il est détourné et utilisé à d’autres fins. Avec l’échantillon, on est entré dans un univers créatif qui permet d’imaginer une utilisation du son radicalement différente de celle de l’imitation.

Il existe, en France en particulier, avec l’IRCAM et le GRM (groupe de recherche musicale), un réel aller-retour entre la recherche, la consommation et la production de la musique. Le GRM continue de fournir sur son site des logiciels de traitement de sons qui sont immédiatement intégrés à la consommation courante des musiciens. La recherche peut porter sur une façon complètement transversale de considérer le son. La division en tranches constitue le premier pas vers la définition d’autres concepts du son. La dose d’aléatoire nécessaire dans toute création artistique apparaît dans l’utilisation de ces logiciels. La matière sonore est capable d’être totalement déviée, propulsée dans des champs extérieurs à ceux de l’imitation par le numérique.

JPEG - 85.5 ko

Je voudrais finir en vous disant que le numérique est pour les musiciens une manière de donner des ordres aux sons. En effet, le numérique permet de coder les ordres que l’on donne au son. On peut faire un son à partir de rien puis lui donner des ordres sans limitation, comme avec la synthèse granulaire par exemple. C’est une responsabilité immense mais particulièrement excitante. Des chercheurs de l’IRCAM travaillent là-dessus. La consommation de cette musique exploratoire existe également à travers des circuits classiques (clubs, radios internet). Cette immense responsabilité se heurte souvent à une réalité psychologique de la musique : les instruments dont on se sert depuis si longtemps ont imprimé dans notre cerveau une sorte d’accoutumance qui rend difficile notre assimilation de ces combinaisons atomiques de sons parfaitement inconnues. Comment combiner ces sons de façon à faire de la musique, c’est-à-dire une onde sonore qui pousse non seulement de l’air mais également des sentiments, de l’attente ? C’est d’autant plus difficile d’y parvenir que nous sommes arrivés, je pense, à la fin de l’ère du clavier. Le XXe siècle a essoré l’idée de l’utilisation de la commande par clavier. L’enjeu du siècle qui vient est de trouver l’instrument qui permettra aux musiciens de donner des ordres à cette musique. Pendant 10 ans, on a fait du son avec une souris ce qui n’offrait pas la possibilité d’avoir des actions simultanées. Désormais, on utilise des pads, des contrôleurs qui sont des reproductions en trois dimensions de ce que l’on voit sur l’écran. Ces contrôleurs permettent aux musiciens de réutiliser leurs doigts en temps réel sur des objets dans l’espace mais cela reste encore très « pousse-boutons ». Se réapproprier notre corps, avec ses émotions, son aléatoire, dans la production du son est devenu l’enjeu principal des années à venir. Y parviendrons-nous ? Je suis très curieux de le savoir.


Questions / Réponses

 J’ai toujours été frappé par le fait que la manière de composer et d’écrire la musique était numérique bien avant que l’on invente l’ordinateur. On travaille la musique sur une grille, la portée, avec des notes. On a donc une première conversion du numérique vers l’analogique quand on joue la musique. Avec la dernière étape qui consiste à repasser au numérique, la boucle est en quelque sorte bouclée. Cela va-t-il changer la façon dont on compose ? Est-ce qu’écrire la musique aura toujours la même signification ? Est-ce que la portée aura encore du sens dans 20 ans ?

Il n’est pas exact de dire qu’une partition rend compte de la musique. C’est une notation extrêmement imprécise, qui permet heureusement à l’interprétation de s’exprimer.
Les années 80 ont été les années du tout numérique. On avait l’impression que toutes les caisses claires de batteries étaient enregistrées dans une salle de bain parce qu’on avait découvert les réverbérations numériques ! Progressivement, on s’est lassé de cet effet. Dans la production contemporaine de musique, il y a un va-et-vient entre l’analogique et le digital. C’est très important car c’est à mon avis la voie du progrès. Ray Kurzweil croit beaucoup à la combinaison entre le biologique et l’informatique, qu’il pressent comme la prochaine étape technologique du développement de l’information. Je pense qu’il a raison. On a souvent tendance à penser en termes binaires : c’est de l’analogique ou du numérique. Pourtant, tous les CD que vous écoutez aujourd’hui sont de savants mélanges de numérique et d’analogique.

 Passe-t-on des silences en musique au silence émotionnel de la musique numérique ?

Votre question sous-entend qu’il y aurait un « beau » silence et un « laid » silence. Encore une fois, c’est une façon binaire de penser. Le beau de quelqu’un est le laid d’un autre. La musique est une expérience psycho-acoustique. Selon l’endroit où l’on se place dans une pièce, on entend plus ou moins bien tel son qui vous fait plus ou moins d’effet selon votre personnalité. Les ingénieurs du son en courant après le silence que vous aimez pour le restituer ont créé de nouveaux outils, qui ont été comme dans le cas de l’échantillon, détournés de leur utilisation initiale. On n’est pas dans une logique d’avant/après mais dans une logique d’évolution progressive : on invente des outils dans la science de l’imitation et ces outils servent ensuite à quelque chose de très différent de l’imitation.

jeudi 27 février 2014, par HUCHERY Mélissa