• news Syndicate content

La semaine du Son 

Par Yves Comeliau - Publié le 08 May 2009
Thèmes :
La semaine du Son

Voilà une belle entrée en matière, forte et stimulante pour nous tous, membres de la toute nouvelle AFSI, mais aussi pour toute personne qui s’intéresse au sonore en géneVoilà une belle entrée en matière, forte et stimulante pour nous tous, membres de la toute nouvelle AFSI, mais aussi pour toute personne qui s’intéresse au sonore en général. 

 

 

Raymond Depardon a senti la nécessité de “dégager l’écoute” dans ses films, à penser le son comme respiration, comme élément créateur et de réflexion, et à sa dimension politique.“Si on n’entend pas, si on n’écoute pas, le plan ne fonctionne pas”, dit-il. Plan de cinéma bien sûr, mais le mot nous le permet, pourquoi pas plan urbain aussi, plan architectural ou plan de diffusion sonore. Quel bonheur que ce soit un réalisateur de films qui, en guise d’introduction, ait formulé de manière pertinente une réflexion qui allait être déclinée et développée dans les divers aspects du sonore tout au long de la semaine. Car ceux qui ont assisté à toutes les conférences et les débats ont bien senti la convergence des angles de pratiques, de recherches ou d’analyses, des aspects culturels, identitaires, éducatifs, mais aussi sanitaires ou encore écologiques du son. 

 

“J’entends, et je pose le regard”, nous rappelle avec foi Christian Hugonnet, acousticien et président de la semaine du son. Selon lui, “On nous a menti,on nous a trompé quand on nous a dit que tout dépendait du visuel. Pensez son, vous verrez, l’image vient de suite derrière”. Et d’ajouter: “Les gens qui pensent son sont des amoureux de l’image”. 

 

 

 

 

 

Tour d’horizon non-exhaustif 

 

 

 

Santé et éducation 

 

La diminution auditive n’est pas qu’une fatalité. Elle est aussi due aux agressions sonores que l’on accumule au cours de sa vie, agressions liées aux secteurs de loisirs ou professionnels dits “à risque”. Par exemple, le personnel de vols aériens accumule des niveaux sonores dans les avions qui leur donnent des problèmes de surdité précoce. L’écoute trop forte ou trop prolongée des MP3 met en situation à risque de surdité ou d’acouphènes, jusqu’ici passagers. Pour le long terme, il n’existe pas de données fiables pour l’instant.  

 

Eric Bizaguet, président du Collège National d’Audioprothèse note que la dégradation et le soin de l’audition sont très difficiles à accepter pour les patients. L’accompagnement des médecins est très important et essentiel, mais le patient doit aussi coopérer activement car un appareil ne rend pas une audition normale. Ce complexe vis-à-vis des problèmes auditifs et le manque d’information fait que les patients arrivent (trop) tard pour se faire soigner. Or, le cerveau s’alimente de ce qui lui parvient. Comme on dit : “La fonction crée l’organe”. Pour preuve, dès qu’on branche un implant cochléaire, la voix de l’implanté se modifie, la modulation de sa parole revient. 

  

Il a été observé que les cellules sensorielles auditives endommagées des oiseaux repoussaient d’elles-mêmes, contrairement à l’humain. Si ces observations donnent un espoir de perspectives de guérison médicamenteuses pour l’audition, nous sommes encore loin du compte.  

 

Christian Hugonnet fait remarquer que le son écouté compressé finit par éduquer à composer compressé, et même à parler compressé. Les nouvelles compositions sont sans nuances, sans respirations, sans dynamique. C’est un phénomène culturel important, bien évidemment encouragé par le désir des producteurs et compositeurs que la musique passe partout et totalement dans les radios, les télévisions, les MP3 et autres supports nomades.  

 

Benoît Gilg, ingénieur du son, note que dans l’éducation, le rapport au son est la plupart du temps négatif. On dit: “Écoute-moi! Tais-toi! Tu fais trop de bruit!” On dit: “Regarde la mer comme c’est beau”; on ne dit pas: “Écoute les vagues...” Par ailleurs, le grand public connaît volontiers un champ lexical de l’image, alors que celui du son est extrêmement réduit. 

 

Quelqu’un a parlé du stade de l’écho, comme l’équivalent du stade du miroir dans l’évolution psychologique et la construction du moi. De même que l’on prend conscience de son image par le miroir, on prend conscience de sa voix par la réverbération. Aimer crier dans un espace réverbéré, c’est fairel’expérience de soi. 

 

Jean-François Augoyard, directeur de recherche au CNRS, fera remarquer que nous avons en nous la capacité de différenciation entre le chant d’un oiseau en forêt et celui d’un oiseau au bord d’un marécage. Cette aptitude nous vient par éducation, par habitude des variations de réverbérations. C’est une connaissance que l’on a mais dont on ne se sert pas. Notre relation au sonore dépasse rarement la lutte contre le bruit et la pensée que la musique, c’est super. 

 

Pour terminer, signalons que les conditions acoustiques ont un effet direct sur 

les résultats scolaires. Nous y reviendrons dans le chapitre consacré à l’acoustique. 

 

 

 

L’identité sonore des villes 

 

L’identité sonore des villes a été largement abordée durant cette semaine,d’une part par le rapport entre image et son, d’autre part par l’acoustique. 

 

Je retiendrai la très intéressante intervention de Henri Torgue, directeur de 

l’UMR 1563 CNRS: 

 

 L’identité, c’est ce qui est permanent, donne une adhésion mais aussi un particularisme (Big Ben nous indique que nous sommes à Londres). Elle dépend de trois facteurs que sont le physique (les sources multiples et mélangées), le spacial (les espaces de diffusion), et le psychologique (l’auditeur interprète et acteur urbain). Travailler sur le sonore d’une ville ne doit négliger aucune de ces trois dimensions, sinon ça ne fonctionne pas. Par ailleurs, le son n’est pas une valeur mesurable en soi. Il est une alchimie entre des fonds (rumeurs stables), des séquences localisées (marché, école, sortie de magasin...), et des ponctuations brèves (signalisations, un cri, deux verres qui tintent...). Le XIXe siècle déjà avait établi un code sonore de reconnaissance par type de véhicule (voiture, calèche, tramway, vélo...). Ceci illustre aussi que le sonore est dit « résiduel »; le son n’est pas un souci primordial, il est utilisé à d’autres fins qui le devancent, comme des fins sécuritaires par exemple (le bip arrière des engins, trop fort et plutôt moche). Or, le sonore, plus que la vue nous offre la signature de l’espace et nous rappelle notre corps dans l’environnement. Car leson nous submerge, il a une ubiquité et est sans paupières. Son territoire dépasse le territoire délimité par la vue (on entend aussi ce qu’on ne voit pas). Par ailleurs, facteur de captation et d’émission des émotions, le sonore est la part intime de notre être. La création musicale en est l’expression la plus irréfutable et la plus spectaculaire.  Aussi, le sonore est un révélateur de l’altérité et de notre faculté à vivre ensemble, c’est le monde extérieur qui vient se rappeler à nous.  Il y a de nos jours une tendance à l’échelle planétaire à l’uniformité sonore: l’urbain comme toile de fond identique partout. Les villes ont besoin de se différencier et de se diversifier dans des particularités. De même qu’on établit des plans lumière pour une ville, on pourrait imaginer des plans sonores et intégrer de cette manière le sonore dans une éthique d’organisation de la vie en commun.  

 

À propos de plans sonores, sachez qu’il existe une directive européenne sur le bruit qui demande aux États-membres d’établir des cartes de bruit stratégiques. Ces cartes servent à réaliser des analyses et à mettre en oeuvre des plans d’actions afin d’éviter, de prévenir ou de réduire les effets nocifs sur la santé humaine dus à l’exposition au bruit ambiant.  

 

Une question fait débat : il existe aujourd’hui des interventions artistiques ou esthétiques dans les villes qui travaillent sur le sonore, pour le meilleur ou pour le pire. Un auditeur de France Inter disait: “De grâce, n’orchestrez pas nos villes”. Lors d’un débat sur cette question, un invité pointe le danger d’un interventionnisme trop fort, d’un kidnapping de l’espace public. Il rappelle que la ville est une oeuvre d’art collective, que la main mise sur l’univers sonore serait une privatisation. Il fait remarquer que les ensembles immobiliers urbains ont beau être justifiés par des argumentations brillantes, ils n’égalent pas le fonctionnement des anciens quartiers qui, toutes proportions gardées, se sont construit d’eux-mêmes. Ce n’est pas du passéisme ou de l’anti-progressisme, c’est un bémol aux ambitions des bonnes intentions. 

 

Ces réflexions sur l’identité sonore des villes font apparaître clairement la dimension politique du sonore. 

 

 

 

Rapport image/son 

 

Sur la question de l’identité sonore des villes, nous avons eu également la visite de Dominique Dalmasso et Olivier Levacon qui sont venus nous montrer des extraits de “Chacun cherche son chat” de Cédric Klapish. Ils ont témoigné de leur travail sur la construction identitaire d’un espace cinématographique par le son, en l’occurrence le XIe arrondissement de Paris. Le son d’un film est aussi une narration atmosphérique au-delà de la narration factuelle du film. Jean- François Augoyard nous parle de cette expérience de reconnaissance du bourdon (fond sonore constant) de différents lieux connus des écoutants. Bien que les informations distinctes et identifiables aient été retirées, les lieux sont reconnus par les écoutants. Ceci laisse supposer que de manière subliminale, les bourdons véhiculent quelque chose d’important. 

 

Gérard Lamps est venu nous parler de l’exposition “Terre natale” (que je vous 

recommande vivement!). La moitié de cette exposition est consacrée au travail de Raymond Depardon et Claudine Nougaret sur l’enregistrement de paroles données à des paysans de par le monde, et dont les langues sont en train de disparaître. Le mixage a été fait in situ, et non en studio, ce qui a permis un travail adapté au lieu en termes de timbre et niveau des voix, et de diffusion. Celle-ci est en 5.1. Le seul regret exprimé par Gérard Lamps concerne l’homogénéité de la diffusion. À cause d’un manque de HP pour raisons budgétaires, celle-ci n’est pas parfaite. De manière plus générale, Gérard Lamps note que l’intérêt du multicanal réside dans le contraste que l’on peut créer entre le mono et les différents canaux. Ceci incite à penser le son en termes d’utilisation de l’espace, idéalement en amont du tournage. Pour lui le mixage commence à la prise de son. Il regrette que l’on se contente la plupart du temps d’une illustration primaire de l’image et qu’on se prive ainsi des possibilités de l’audio dans une discipline qui pourtant s’appelle de l’audio-visuel.   

 

 

 

De la diffusion professionnelle et domestique 

 

À l’IRCAM, nous avons eu la chance d’entendre fonctionner le système de diffusion WFS (Wave Field Synthesis). Le principe consiste en une série de HP collés les uns aux autres sur une ligne horizontale appelée antenne de HP ou fenêtre acoustique (ici 80 HP séparés de 16cm chacun). Un système de gestion de retards dans les HP permettra de mouvoir l’information sonore dans l’espace. Ce système a aussi la particularité de pouvoir travailler avec et non contre l’acoustique de la salle. Une expérience en direct nous fait entendre l’enregistrement d’un trombone diffusé depuis diverses places virtuelles dans la salle. Impressionnant! Ce type de dispositif commence à être installé dans différents lieux parmi lesquels une salle de concert, un studio d’enregistrement et un cinéma. Autre système présenté: le projet HOA (High Order Ambisonics). C’est un système de captation-diffusion sphérique multicanal. Le principe est d’enregistrer avec un micro sphérique placé comme une tête à l’endroit d’écoute souhaité. Celle boule est tapissée de 32 capteurs. Le signal encodé sera ensuite décodé pour la diffusion. Pour finir, un mot sur les techniques binaurales-transaurales directement inspirées du cinéma 5.1, mais pour la post-production musique. Ce système tient son nom du souci de dépasser les contraintes de “trous sonores” dans la diffusion latérale et arrière. Pour l’écoute au casque, l’utilisation des filtres HRTF travaillera la spacialisation du son; c’est la synthèse binaurale. Pour l’écoute sans casque, on évitera les trajets croisés des diffusions d’HP afin de clarifier la spacialisation et même de créer des sources virtuelles; c’est le 

traitement transaural. Quant à la “sono” des salles de concert, une petite révolution culturelle est en cours. Certains d’entre vous connaissent déjà peut-être le système “Line- Source”. Son principe est basé sur une directivité utra précise des HP, gérée par ordinateur selon les données d’unemodélisation de la salle qui aura été faite au préalable, de manière informatique bien évidemment. Mais la petite révolution tient plus de la numérisation du son dans son transport vers les régies. Toutes les sources partent dans un patch où le son est numérisé. Il peut ensuite être transporté par câble Ethernet. Fini les multipaires! Un seul câble suffit entre le patch et la régie de façade. Le cheminement du son perd son traditionnel agencement pour entrer dans la logique informatique et virtuelle. À partir du moment où l’on est branché au patch, on choisit via une interface quelles sources on veut et pour où. C’est une logique de routing informatique.  

 

Pour l’écoute “domestique”, André Zagury, importateur en France de Tivoli Audio, nous parle du succès immédiat rencontré par la radio Tivoli mono. La conception de cette radio très design a voulu répondre à la manière dont les gens écoutent la radio chez eux. En France, le nombre d’auditeurs a augmenté de 10% ces cinq dernières années. 42 millions de personnes écoutent la radio tous les jours, en semaine, avec un pic d’audience entre 8h00 et 8h15 le matin. Pour des auditeurs en mouvement pendant l’écoute et sans temps à consacrer pour de multiples fonctions ressenties comme compliquées et inutiles, il fallait une radio qui allie simplicité, solidité, minimalisme et qualité de réception-diffusion. 

 

Quant au Blu Ray, son intérêt réside dans un gain de débit (48 Mbit/s) et donc une diminution possible de la compression. Ce support propose jusqu’à 

8 canaux de sorties et 32 pistes sonores internes. Il atteint 24 bits et élargit donc la dynamique. Sa fréquence d’échantillonnage monte jusqu’à 192 kHz. Encore faut-il bien sûr que la production soit à la hauteur des qualités du support. Un produit 16 bits/44.1 peut très bien se retrouver sur un disque Blu Ray. Celui-ci n’est donc pas une garantie de qualité, mais encourage celle du travail fait en amont. Par ailleurs, un format Blu Ray 1.3 serait dédié à l’audio et pourrait théoriquement remplacer le CD. 

  

La HDTV a fait son apparition en 2005 sur M6 avec des diffusions en 5.1. Cette diffusion ne concerne que les produits 5.1 (les films essentiellement). Il est évidemment impensable d’imaginer un Talk Show diffusé de cette manière. 

 

Le téléphone portable aussi propose une écoute en 5.1, toujours par une spacialisation virtuelle grâce aux filtres HRTS. Autre possibilité, le BD positioning qui travaille la spacialisation à gauche, à droite et avant-arrière par effets doppler, effets dit de destruction et de masquage. Ces systèmes trouveront des applications dans ce qu’on appelle les appareils d’écoute nomade comme les  MP3, ou le Vidéo players. 

 

Il va de soi que ces notes ne sont pas un manuel de détails techniques. Il est juste instructif de connaître au moins l’existence de toutes ces évolutions. Elles peuvent avoir des effets rétroactifs sur la fabrication des produits, sur les conséquences éducatives des manières d’écouter et les qualités auditives des utilisateurs.  

  

Le débat du jour abordera d’ailleurs ces aspects. Faut-il produire en référence à la qualité du support final? Ou faut-il toujours viser la meilleure qualité quitte à ce que celle-ci se perde au final, selon l’adage “Qui peut le plus peut le moins” ? Les opinions se recoupent : l’important est d’accorder la fin et les moyens; c’est d’abord une question de budget; il faut poser la fabrication du produit en termes d’usage; le mixage d’un film ne sera pas le même pour une salle que pour la télé. En salle, la dynamique est de 50dB; à la télé, seulement de 5dB. Quelqu’un fait remarquer très justement que la vue sera toujours limitée par la taille de l’image alors que le son peut garder sa grandeur en toute circonstance. Le son élargit l’image. Le cerveau s’adapte très bien à la disproportion entre l’image d’un vidéo player, voire d’un portable, et l’ampleur apportée par l’écoute du son au casque.  

 

Ce soir-là, un atelier-concert est proposé à l’espace de projection de l’IRCAM. Différents extraits d’oeuvres sont joués plusieurs fois par un orchestre philharmonique dans différentes acoustiques. Cette salle de l’IRCAM est un lieu à acoustique variable. Les murs sont composés de panneaux tournants à surfaces plus ou moins réverbérantes. C’est un grand moment de sensibilité et de sensibilisation. On peut noter que l’absence de réverbération fragilise la musique et aide à l’analyse. Le dosage de la réverbération est fonction de l’œuvre jouée et des goûts de l’écoutant. Pour les oeuvres sacrées, il est certain que la réverbération amplifie le mystère du son, brouille son origine, et lui donne une valeur mystérieuse de l’ordre de la source inconnue, comme un souffle qui vient d’on ne sait où. Des comparaisons sont faites aussi entre une exécution totalement acoustique et une exécution ponctuellement amplifiée. Ceci fait apparaître l’importance de la clarté acoustique qui permet aux musiciens et chefs d’Orchestre de se concentrer sur la musique et non sur les difficultés acoustiques, ainsi que l’importance de la régie son, en cas d’amplification. Puis la salle chante pour éprouver les différentes acoustiques par elle-même. Christian Hugonnet nous parle des parois de plexiglas (qu’il déplore) et des bouchons d’oreille que les musiciens utilisent pour se protéger des niveaux sonores montant des orchestres philharmoniques. Notons que les cuivres ont augmenté de 10 dB en 10 ans... 

 

  

 

Acoustique 

 

La réflexion acoustique a porté essentiellement sur les établissements d’enseignement. Le moment fort a été la démonstration d’une étude acoustique effectuée en Allemagne dans un établissement scolaire pendant six semaines. Mesures à l’appui, cette étude démontre que le rythme cardiaque évolue simultanément au niveau de pression acoustique (NPA). En d’autres termes, le NPA a mesuré les variations du niveau sonore en dBa selon l’activité dans la salle de classe sur une durée donnée (par journée, pour notre étude). Parallèlement, le rythme cardiaque du professeur a été mesuré en pulsations par minute. Quand le NPA augmente, le nombre de pulsations augmente à amplitude égale. Il est impressionnant d’observer la simultanéité de variation des deux courbes. Avant traitement acoustique, la classe avait un temps de réverbération (TR) de 0,7”. Après traitement, le TR est tombé à 0,35”. Non seulement la courbe NPA diminue fortement, mais de plus, elle conserve une allure plus constante que le taux d’activité dans la classe ne fait quasiment plus varier. La courbe du rythme cardiaque suit la même évolution, toujours simultanément à la courbe NPA mais avec encore moins d’amplitude. Il y a en moyenne une diminution de 10 pulsations cardiaques par minute. Les conséquences sont faciles à comprendre : meilleure communication, moins d’effort pour parler, meilleure écoute, moins de stress, meilleure santé. Une étude plus ancienne (20 ans) effectuée en France avait déjà démontré qu’il y avait un rapport évident entre le bruit et les performances de l’apprentissage de la lecture. Cette étude révèle un écart de 10% de résultats scolaires sur l’apprentissage de la lecture entre les élèves qui mangent à la cantine très bruyante de l’école et ceux qui n’y mangent pas. Ainsi les lieux de détente et de repos à l’école que devrait être une cantine ou une cour d’école sont envahis par des niveaux de bruit fatigants et stressants qui sont autant de facteurs aggravants pour l’apprentissage, la vie sociale et la santé. Des mesures récentes font état de taux de 85 dB dans les cours d’école avec des pics à 110, voire 125 dB. 

 

 

Certes, certaines architectures montrent un souci d’acoustique déjà avant le XIXe siècle, comme nous le rappelle Jean-François Augoyard, directeur de recherche au CNRS. Par exemple, comment construire la chambre des enfants à côté de la chambre des parents de sorte que les parents entendent les enfants, mais que les enfants n’entendent pas les parents? Athanasius Kircher, un architecte urbaniste du XVIIe siècle s’amusait à imaginer des utopies sonores pour la ville: par exemple des conduits acoustiques, des statues qui parlent... Cependant, en France, on privilégiera toujours le visuel à l’acoustique.  L’Opéra bastille en est une “belle” illustration. Les concerts sont sonorisés pour qu’on entende bien partout dans la salle, c’est-à-dire pour rattraper une acoustique négligée à la conception du lieu, pourtant dédié à l’écoute de la musique (!)  

 

Le sonore a toujours son statut résiduel et est aujourd’hui très dépendant du traitement thermique. Il faut tout de même noter l’existence d’un règlement normatif acoustique (taux de TR, NPA, coefficient d’absorption...), mais qui ne 

s’applique que pour les bâtiments neufs, ainsi que des aides de subventions de 50% dans des projets de traitement acoustique des établissements scolaires. Mais ces incitations restent faibles. Les outils culturels et éducatifs, y compris l’éducation nationale, n’ont pas encore la maturité des questions acoustiques. 

 

 

Conclusion 

 

Toutes ces rencontres ont une convergence : “Dégager l’écoute”, pour reprendre une expression de Raymond Depardon. Que ce soit dans les films, dans la musique, dans les salles de concert, dans les lieux d’enseignement, dans les villes. “Dégager l’écoute”, c’est aussi redonner au corps sa dimension sonore, c’est-à-dire répondre au mieux à sa nature de récepteur-émetteur par les respirations, les nuances et les perspectives du son. 

 

Il faut s’inquiéter d’un format qui garde une information sur douze pour onze qui partent à la poubelle, le MP3. Il faut s’inquiéter du fait que les aveugles ne 

peuvent plus se diriger au bruit de leur canne dans des quartiers où les détails sonores disparaissent sous le bruit ambiant. Il faut se demander ce qu’est la culture d’une société où les musiciens d’un orchestre philharmonique placent du plexiglas entre eux et se mettent des bouchons dans les oreilles; d’une société dans laquelle seulement 2% de la population joue d’un instrument, contre 65% aux États-Unis. Il faut rendre au son sa place primordiale de vecteur de communication. 

 

“Dégager l’écoute”, car un appauvrissement du sonore, c’est un appauvrissement des liens sociaux. Ces questions soulèvent la responsabilité de chacun, certes, mais à commencer par celle des acteurs du sonore, c’est-à-dire tous ceux qui travaillent avec le son. 

 

 

 

 

Quelques Sites Internet : 

La semaine du son : www.lasemaineduson.org 

Institut de recherche et création musicale : www.ircam.fr 

Le traitement audio de spacialisation (en anglais) : www.arkamys.com 

Recherche sur l’espace sonore et l’environnement urbain : www.cresson.archi.fr 

Directive Européenne sur le bruit :  www.developpement-durable.gouv.fr 

 

Quelques lectures : 

« Le traité des objets musicaux »de Pierre Shaeffer, 1955 

« Le paysage sonore », Schafer, R.Murray, Paris, Edition JC Lattés, 1991 

« L’expérience musicale. Résonances psychanalytiques », L’Harmattan, 1994 

« Tokyo décibels » Roman de Hitonari Tsuji et Corinne Atlan, chez Naïve 

 (Vumètre à la main, un employé de la mairie de Tokyo déambule dans la ville pour mesurer la pollution 

sonore. Ce travail lui donne l’idée de créer une carte des sons : rue par rue, il répertorie les bruits naturels et 

artificiels qu’il perçoit.) 

 

exposition : 

« Terre natale, Ailleurs commence ici » Raymond Depardon et Paul Virilio, Fondation Cartier 

www.fondation.cartier.com 

 

 

 

 


Commentaires

Vous devez vous identifier pour poster des commentaires.