ÉCOUTE !

Anatomie et physiologie : l'écoute est une action

(Chapitre 1 de "La Clef des Sons")

Dr Bernard Auriol

 

Entendre suppose un son (physique), une oreille pour le capter, un système nerveux pour le recevoir.

Ecouter est un processus actif supposant préférences et répulsions pour tel son ou telle séquence sonore.

Ce processus actif est évidement présent lorsque tout l'être aiguise sa perception pour saisir tel signal précis dans la masse confuse des bruits extérieurs : la voiture de l'aimé, la sirène de police, la pub télévisée, etc. L'écoute est donc modelée par les expériences de toute la vie antérieure depuis que l'audition est fonctionnelle : environnement sonore familial, paysage sonore de la collectivité rurale ou urbaine. Evoquons les avions près d'un aéroport, l'effet ultérieur des sons intra-utérins, le phénomène de sélection des phonèmes reconnaissables lorsque l'enfant évolue dans un milieu linguistique donné, etc.


Nous devons décrire ou inférer les mécanismes propres à assurer cette attitude active vis-à-vis de l'information sonore : pavillon de l'oreille externe et ses muscles, dispositif de réglage de l'oreille moyenne et des cellules réceptrices de la cochlée, jeu des pressions liées aux mouvements de la tête, aux ouvertures et fermetures de la trompe d'Eustache, rôle du bâillement... Enfin investissement plus ou moins important des diverses zones corticales ou sous-corticales chargées de l'intégration sonore : activation globale ou modulée de ces zones et de leurs parties, éveil plus ou moins grand du cortex (rôle de protection de l'audition et sans doute d'une écoute sélective à l'égard des sons menaçants)... Il ne s'agit pas uniquement d'une activation électrique, mais aussi d'une irrigation sanguine accrue...

Le son

Il est sans doute bon d'en donner une brève description physique : il s'agit de modifications de la pression à périodicité plus ou moins complexe et régulière. A côté des sons que l'audition nous permet de connaître, il existe des vibrations qui échappent à ses compétences.

Infrasons : si les variations de pression sont trop lentes, elles ne seront pas perçues au niveau de l'ouïe mais, pour des intensités suffisantes, elles le seront au niveau des récepteurs de la peau ou de l'organe labyrinthique : on parle alors d'infrasons (un exemple nous est fourni par certaines souffleries de conditionnement d'air).

Ultrasons : si les variations de pression sont trop rapides, elles échapperont également à l'audition mais pourront, lorsqu'elles sont très puissantes, déclencher des réactions dans l'organisme selon des mécanismes parfois mal connus : il s'agit d'ultrasons. On a remarqué le fait que le foetus semble fortement réagir lorsqu'on abuse de l'échographie : ce procédé utilise des ultrasons de forte puissance et de fréquence pourtant extrêmement éloignée du domaine audible.

Nous savons tous que certains sons, trop aigus pour notre perception humaine sont facilement reçus par le chien, le chat ou la vache. La chauve-souris s'en sert pour se guider (phénomène d'écholocation). Ainsi, ce qui est " son " pour le mammifère volant est " lettre morte " pour le setter irlandais, et notre fidèle compagnon répond au sifflet d'un maître qui ne l'entend pas. Plus le chiroptère est petit et plus les fréquences qu'il utilise sont élevées, ce qui lui donne un avantage évolutif pour la chasse des petits insectes, d'autant plus "visibles" avec précision que la fréquence est élevée [1]

Emile Leipp (1977a) insiste sur le fait que cette disparité existe aussi entre les individus : en deçà de 60 hertz, Pierre ne perçoit pas le grondement qui gêne Paul ; au-delà de 15 000 hertz, le papa n'entend rien alors que son jeune enfant dresse l'oreille. On sait que les élèves des collèges ou des Lycées abusent de ce fait en programmant sur leur portable une sonnerie qu'ils entendent alors que le Pr, plus âgé, ne s'aperçoit de rien !

Grosso modo, les sons désignent des vibrations accessibles à la plupart des êtres humains : grossièrement de 20 à 20 000 hertz. Il convient de remarquer qu'en dehors du laboratoire les vibrations disponibles sont toujours extrêmement complexes, même lorsqu'il s'agit de la voix humaine ou de sons musicaux que nous apprécions pour leur pureté et leur apparente simplicité.

Hauteur approximative des notes du piano et des composantes de la voix

Hertz

27

55

110

220

440

880

1 760

3 520

Piano

La-2

La-1

La1

La2

La3

La4

La5

La6

Formants

       

500

1 500

2 500

3 500

Cette complexité inextricable au premier regard devient davantage compréhensible si nous considérons le phénomène de résonance : lorsque le chanteur pousse un peu sa voix, il fait vibrer certains objets qui l'environnent et pas les autres. Il en va de même pour la note que joue un instrument de musique. Si la Castafiore casse le verre du capitaine Haddock, c'est parce qu'une des notes qu'elle émet a une longueur d'onde compatible (en rapport arithmétique simple) avec les dimensions du verre. On dit que les vibrations ainsi provoquées aux alentours le sont par résonance. Et parmi toutes les possibilités, certaines seulement se manifestent, dépendant de la masse de l'élément, de sa rigidité, de sa forme, etc. Il est donc besoin, non seulement d'un excitateur et d'un résonateur, mais aussi d'un couplage entre ces deux partenaires ; il y a un double mouvement dont rend compte ce couplage : de l'excitateur au résonateur bien sûr, mais aussi le résonateur réagira sur la source...

Dans le cas de la voix humaine, chantée ou parlée, la signification vient davantage de l'ensemble des phénomènes de résonance et de bruits surajoutés, déclenchés au niveau des cavités de la face (bouche, sinus, nez, etc.) que du son de base émis par les cordes vocales (fondamental). On désigne comme partiel les sons émergents grâce aux renforcements sélectifs de cette production laryngée. Si la fréquence d'un partiel est dans un rapport arithmétique simple avec celle du fondamental, on le qualifie d'harmonique. Le musicien exécute généralement une note précise, et les résonances induites de manière systématique selon la structure de l'instrument constituent les harmoniques en rapport mathématique simple avec cette note.

Ces considérations ne doivent pas cacher le fait qu'aiment à souligner Guy Maneveau et Pierre Josserand : pour le physicien, le son en un point donné, au creux de l'oreille par exemple, est entièrement connu quand on possède la courbe de la pression en fonction du temps. Le temps est omniprésent dans la nature physique du son, dans sa perception physiologique et dans sa signification psychodynamique (cf. chap. 10, 11 et 12).

D'un point de vue physique, par exemple, il intervient au niveau du rythme, bien sûr, de la mélodie qui est une succession de notes, et même de l'harmonie, dans la mesure où les phénomènes de résonance sont de nature oscillatoire et donc liés à un mouvement dans le temps. Si le temps s'arrête : plus de musique, plus de son. Le silence ! Nous n'avons pas, sur le plan sonore, d'équivalent à l'" arrêt sur image " que nous connaissons avec le magnétoscope... Echo est vraiment bien différent de Narcisse !

C'est dire que le phénomène sonore est beaucoup plus temporel que spatial, à la différence du toucher et surtout de la vue qui embrasse l'étendue. L'espace auditif se réduit au fait que nous avons deux oreilles. La comparaison entre elles permettant, assez grossièrement, de dire où se situe la source. Encore convient-il de remarquer combien ce " où " dépend d'un autre espace qui sert de référence. Espace de l'action bien sûr. Espace de référence visuel (hormis les cas de cécité)...

*

Alfred Tomatis affirme que " l'éveil auditif ", spécialement dans sa composante esthétique, exige la présence d'au moins trois fréquences simultanées. L'écoute est un phénomène d'ensemble géré non seulement suivant son flux linéaire (avant/après) mais aussi selon l'axe haut/bas. Ce vecteur est distinct de celui du géomètre, puisque sans rapport univoque avec le cadre extérieur.

D'autres auteurs ont insisté sur cet étalement des fréquences sur la spirale cochléaire, médiateur entre l'espace physique et la dimension psychophysiologique... Ces travaux montrent, par dégradation progressive du matériel sonore, les liens très étroits qui existent entre la signification du message et son déroulement temporel d'une part, l'effet esthétique et sa structure fréquentielle d'autre part. Ceci est également connexe aux fonctions respectives de chaque hémisphère cérébral (que nous détaillerons au chapitre 6 (structures diachroniques/traitement digital/sémantique/cerveau gauche ; structures synchroniques/traitement analogique/esthétique/cerveau droit).

Parasons (ou extrasons) : je veux regrouper ici la perception de vibrations non perceptibles par l'audition ou le sens labyrinthique, mais qui stimulent des récepteurs cutanés spécialisés; on est ici dans le domaine de la "tribologie" par exemple. Notre peau se montre capable de nous renseigner sur des vibrations subtiles qui nous apparaissent comme empreintes de douceur et qui diminuent d'éventuelles sensations de douleur ou d'inconfort.

Ce sont ces vibrations cutanées, localisées notamment à la pulpe de la dernière phalange de nos doigts, qui nous informent quant au lissage, à la brillance et à la "douceur" de cheveux que nous touchons. Un appareillage imitant ce type de perception (sonde tribo-acoustique) permet d'ailleurs d'étalonner ce type de perception (cf. ttp://www.cnrs.fr/cw/dossiers/doschim/decouv/cheveux/liss_brill_douc.html et http://www.cnrs.fr/cw/dossiers/doschim/decouv/cheveux/loupe_mes_douc_chev.ht ml)

Notre équipement sensoriel, à ce niveau, n'est pas du tout négligeable puisque il existerait quelques 2000 capteurs par millimètre carré au niveau de la pulpe des doigts. Il existe plusieurs types de capteurs qui, tout comme au niveau de l'appareil auditif, se sont spécialisés dans des bandes de fréquences bien déterminées et spécifiques de chacun d'eux.

Pour les psycho-physiologistes, les récepteurs extéroceptifs sont sensibles à la pression (corpuscules de meckel), à l'étirement et aux vibrations (corpuscules de pacini), au toucher (corpuscules de meissner que l'on trouve à la base des poils).

Les corpuscules de Pacini (appelés également corpuscules de Vater Pacini), ont été découverts par l'anatomiste italien Filippo Pacini (1812-1883); ce sont des récepteurs sensoriels formés de terminaisons encapsulées situés en profondeur dans la peau. Ils sont sensibles aux étirements et aux vibrations. Il détecte le début et la fin d'une pression mécanique (récepteur ON/OFF). Le corpuscule de Pacini est encapsulé "en bulbe d'oignon". Il est muni d'une formation neuronale myélinisée.

Les corpuscules de Pacini pourraient détecter des fréquences aux alentours de 300 Hz (sensibilité maximum) à des amplitudes très minimes (de quelques microns à peine).

corpuscule de pacini, image wikipedia

Les corpuscules de Meissner, découverts par l'anatomiste Georg Meissner (1829-1905), sont des récepteurs sensoriels formés de terminaisons encapsulées, situés dans la partie supérieure du derme, particulièrement sensibles au toucher léger. Les corpuscules de Meissner répondraient à des fréquences de l’ordre de 50 Hz (toucher appuyé).

Les capteurs de Ruffini déterminent la profondeur d’enfoncement de la peau, ce qui traduit son degré de raideur superficielle et détermine les conditions de glissement du toucher.

corpuscule de Meissner in wikipedia

Les capteurs de Merkel ont une structure rigide. Par ailleurs, ils ne sont pas encapsulés ce qui leur permet de donner une réponse de longue durée, à adaptation lente (sous forme de potentiels d'action ou "spikes") lorsqu'il y a une déformation mécanique de la peau qui peut être de très faible amplitude, de l'ordre de 1 micron. Cette extrême précision est utilisée par les non-voyants pour lire le braille. Au niveau fréquentiel, leur pic de sensibilité se situe dans la zone de 5 à 15 Hz.

On voit que l'ensemble des récepteurs cutanés est sensible aux très basses fréquences mécaniques (de 5 Hz à 400 Hz) dont une partie sont celles des sons hypergraves acoustiques que peut percevoir notre ouïe (L0 et L1 de Leipp; SB1 et SB2 de Millot).

Quand nous voulons apprécier la douceur d'une surface, notre exécutons un geste d'effleuremente avec la main ce qui va faire vibrer nos récepteurs xutanés et produire un bruit qui dépend de la plus ou moins grande rugosité de cette surface.

Le Laboratoire de tribologie et dynamique des systèmes (LTDS), étudie les mécanismese de ce bruit de frottement notamment par rapport à la peau humaine dont un sujet veut éprouver la douceur.

Ce laboratoire développe avec les laboratoires Pierre-Fabre Dermocosmétique, une sonde tribo acoustique* (brevet international CNRS/LTDS) qui tend à mesurer la qualité du toucher de la peau et des cheveux, grâce à cet appareil apte à mesurer les frottements et vibrations. Des tests "subjectifs" ont permis de valider les qualités métrologiques de cet outil.

Cette approche a permis d’identifier les modifications sonores lors du vieillissement cutané ou de l’hydratation de la peau humaine avec différents produits.

Variations gravitationnelles : elles seront captées et connues grâce à la mise en jeu de nos récepteurs vestibulaires : saccule, utricule, canaux semi-circulaires.

 

L'oreille

"Il y aura un temps où l'on ne supportera pas le sain enseignement ;
au gré de leurs passions les hommes se donneront quantité de maîtres à penser :
ils ont des oreilles qui leur démangent
et ils détourneront leurs oreilles de la vérité pour se tourner vers des fables
"
(II Timothée 4, 3-4

 

On a coutume de décrire l'oreille en trois parties : externe, moyenne, interne.

1. L'oreille externe répond à la partie visible de l'organe :

La forme du pavillon, peu ou très plissé, celle du conduit, plus ou moins contourné, vont permettre de collecter les sons et d'augmenter le niveau sonore de 10 à 15 décibels, sur une gamme de fréquences comprises entre 1 500 et 7 000 hertz (Shaw, 1974) avec une résonance à 3 kHz.

La plupart des animaux possèdent une musculature mobilisatrice du pavillon bien développée (le cheval a 17 muscles et les tarsiers, qui sont capables d'écholocation ont des oreilles capables de s'orienter dans toutes les directions). Ceci les autorise à viser spatialement le son, avec une précision dont nous sommes incapables. Remarquons pourtant que l'homme est pourvu de trois muscles en état de marche ; un peu d'entraînement nous permettrait de les mettre en Suvre. L'efficacité du procédé paraît minime dans notre espace ; ainsi, ces mouvements du pavillon représentent plutôt l'indice d'une attention accrue qu'un moyen très précis de visée sonore.

Le rôle localisateur du pavillon concerne essentiellement les aigus, supérieurs à 2 000 hertz. Le bénéfice maximum se situe à 7 000 hertz, quand l'émission sonore est dans l'axe du conduit auditif externe. Ainsi peut être repérée la direction de la source. Dans la plupart des situations (surtout chez l'homme), le mouvement de la tête contribue, plus que ceux du pavillon considéré isolément, à cette orientation.

Si la tête est fixe, c'est la diffraction par le pavillon qui permet à l'auditeur de distinguer si un son, situé au milieu, vient de l'avant ou de l'arrière (Blauert, 1983).

Les sons aigus ont un rôle particulier vis-à-vis de l'attention auditive qu'ils induisent, leur efficacité directionnelle prend sans doute une part dans l'explication de ce fait. Ils font, mieux que d'autres, dresser l'oreille et orientent le regard (comme les photographes l'ont bien compris, faisant précéder la prise de vue d'un sifflement irrésistible)...

Le pavillon comporte une multitude de points dont les caractéristiques électriques semblent liées au fonctionnement des autres parties de l'organisme, au point que la stimulation (acupuncture) des points perturbés pourrait améliorer le fonctionnement des organes invoqués. L'auriculothérapie, à la suite des travaux du Français P. Nogier, inaugure peut-être la découverte d'un principe de fonctionnement plus général, dans lequel toute partie de l'organisme répondrait à toutes les autres et réciproquement ; un tel mécanisme a déjà été présumé par Pribram en ce qui concerne le fonctionnement cérébral, mais il pourrait s'agir, je pense, d'une loi tout à fait fondamentale des organismes vivants ou même des unités structurées en général (Auriol, 1985a).

Doit-on admettre une action sur l'organisme entier des vibrations sonores touchant le pavillon et qui, selon la structure de ce dernier, ébranlent de manière variée ses différents points ? Cela entraînerait une sorte de massage différencié avec pour conséquence éventuelle des modifications touchant tel ou tel organe par un effet d' "auriculothérapie" !. Quelque chose d'analogue au massage des points réflexes du pied lors de la marche sans chaussures. Les sourds aussi bien que les entendants seraient, bien sûr, accessibles à un tel phénomène. Il est clair qu'il s'agit là, pour l'instant, d'une pure spéculation....

Il sera sans doute moins excessif de rappeler les interactions (que j'ai souvent vérifiées) entre des sons inconsciemment mal acceptés et l'état de l'oreille externe, moyenne (et sans doute interne) : oedème du pavillon, eczéma du conduit, hyper ou hypo sécrétion de sébum, otites et même par un mécanisme différent, déchirement du tympan lors d'un nettoyage abusif au coton-tige, etc.

Le rôle du canal auditif externe est assez peu valorisé par les physiologistes, il joue pourtant un rôle, peut-être déterminant ! Ce rôle concerne notamment la localisation de la source sonore et la gestion d'une température optimale du tympan et de l'oreille moyenne.

source : www.audition.fr

Fig. 1. L'oreille humaine (© Copyright Luis Godinho - www.audition.fr)"

 

L'oreille moyenne et l'oreille interne habitent à l'intérieur de l'un des os du crâne, le temporal ou, plus précisément, dans une partie trapue et tourmentée de cet os : la pyramide pétreuse ou rocher. Ce "rocher" ou "pars petrosa" est une partie de l'os temporal (squamma temporalis). Le terme de "rocher", de "pétreux" ou "pierreux" a été retenu "à cause de sa dureté et de son inégalité qui est comme des rochers et des aspretez" (Gasapard Bartholin, Institutions anatomiques, traduction de Du Prat, Paris, 1647; cité parA. Bert et C. Pellanda, in La Nomenclature Anatomique et ses origines, explication des termes anciens employés de nos jours, Alcan, 1904).


2. L'oreille moyenne (fig. 1) est une cavité remplie d'air. Elle a pour limite extérieure le tympan, membrane qui la sépare du conduit auditif externe. Du côté de l'oreille interne, on trouve deux orifices ménagés dans l'os : la fenêtre ovale munie de l'étrier et la fenêtre ronde fermée par une membrane (fig. 2) ; vers l'arrière du crâne on trouve les cellules mastoïdiennes qui criblent l'os d'un dédale de petites cavités. Vers l'avant se trouve la trompe d'Eustache qui fait communiquer l'oreille moyenne avec l'arrière-gorge ; si des variations de pression durables surviennent dans le milieu externe, la personne pourra ouvrir ce conduit afin de rétablir l'équilibre : c'est ce qui se passe en montagne ou dans un avion non pressurisé, d'où le besoin d'avaler qui entraîne cette ouverture réflexe. Le bâillement a le même effet à cet égard... En fait, même si la pression atmosphérique ne bouge pas, la pression de la caisse du tympan diminue insensiblement par dissolution de l'air dans les vaisseaux sanguin de sa paroi d'où la nécessité d'avaler fréquemment (une fois par minute pendant la veille et une fois toutes les cinq minutes au cours du sommeil) (Burgeat, 1973). Fait remarquable, ce conduit reste toujours fermé pendant l'acte de parole.

Fig. 2. La caisse du tympan vue d'en haut (d'après Gellé).

 

Contrairement à beaucoup d'autres schémas, celui-ci permet de comprendre la raison d'être des organes et les mécanismes en présence. Le système de leviers articulés, grâce aux muscles, peut être modifié en raideur (impédance), par voie réflexe ou volontaire. Lorsque les amplitudes du tympan sont trop fortes, elles sont atténuées (30 dB) par ce dispositif. Lorsqu'elles sont trop faibles, les muscles permettront de réaliser une impédance optimale, compte tenu de la composition acoustique du phénomène. Cette adaptation d'impédance se fait nécessairement avec modification de la courbe de réponse du système ; en " tendant " l'oreille, on peut donc adapter de façon optimale les pointes de cette courbe au phénomène à percevoir. Dessin extrait de E. Leipp (1977a, p. 57).

L'oreille moyenne est traversée par une chaîne de petits os articulés qui relient le tympan à la fenêtre ovale. Les osselets sont : le marteau lié par son manche au tympan, l'enclume et, finalement, l'étrier, solidaire de la membrane qui obture la fenêtre ovale. Il est merveilleux de constater que ces os lilliputiens sont mobilisés par de non moins minuscules moteurs : le muscle du marteau et celui de l'étrier. Nous aurons à reparler de ces petits êtres !

3. L'oreille interne (fig. 3). Son anatomie est complexe. Et quelque peu rébarbative... Essayons pourtant de nous en faire une idée claire.

Fig. 3. Labyrinthe membraneux du côté droit, vu par sa face externe.

 

1. utricule. - 2. canal demi-circulaire supérieur. - 3. canal demi-circulaire postérieur. - 4. canal demi-circulaire externe. - 5. saccule. - 6. canal endolymphatique, avec : 7 et 7', ses canaux d'origine ; 8. son cul-de-sac terminal. - 9. colimaçon (cochlée). Dessin extrait de Testut et Jacob (1905, p. 314).

 

On la compare à un labyrinthe creusé dans l'os et garni d'un deuxième, système membraneux et plus labyrinthique encore !

A l'utricule, organe de l'horizontalité, se rattachent les trois canaux semi-circulaires, système dynamique participant à l'équilibration : ils nous disent les variations de vitesse au cours de nos déplacements (accélération, freinage, rotation, etc.) selon les trois directions de l'espace. Au saccule, organe de la verticalité, revient de nous renseigner sur les inclinaisons de la tête sur le côté, en avant ou en arrière ; à lui se rattache la cochlée, spécialisée dans le son. Le saccule est lui-même apte à percevoir les sons très graves.

On a pu montrer, de plusieurs manières (Toupet, 1981), que le saccule est parfaitement sensible aux sons de basse fréquence. C'est par cette voie que bien des sourds profonds conservent une certaine capacité auditive. Cependant, ce type de capteur est plus sensible aux rythmes qu'aux fréquences et a, de ce fait, un rôle informationnel médiocre. C'est à lui que s'attache l'appareil auditif cochléaire, logé dans le limaçon. Intimité bien étroite entre les organes qui disent notre situation dans l'espace et ceux qui nous renseignent sur les vibrations sonores ; d'où la fascination de la danse. Elle unit les membres du groupe dans un mouvement d'allégresse commune, scandé par les rythmes sonores traditionnels.

A l'intérieur de la cochlée (fig. 4), nous trouvons deux tubes : la rampe tympanique qui s'abouche directement à la fenêtre ronde et la rampe vestibulaire qui par l'intermédiaire du saccule peut subir les variations de pression captées par la fenêtre ovale (sur laquelle est fixé l'étrier). Cette rampe vestibulaire est à son tour subdivisée en deux tubes (fig. 4) dont le plus intéressant est le canal cochléaire : au niveau de son socle se trouve la membrane basilaire qui porte l'organe de Corti recouvert par la membrane tectoriale. C'est là que se fait la stimulation vibratoire des récepteurs nerveux. Au sommet du colimaçon, les deux rampes se rejoignent (par une ouverture très petite l'hélicotréma).

Fig. 4. Une coupe de la cochlée. Dessin extrait de E. Leipp (1977a).

 

Les variations géométriques de différents éléments ont depuis longtemps frappé l'imagination des théoriciens : la membrane basilaire, étroite, épaisse et raide à la base du limaçon, s'élargit en s'amincissant et s'assouplissant jusqu'à son sommet ; la longueur des piliers de Corti croît progressivement de la base au sommet (apex) selon un schéma analogue ; même la longueur des cils se conforme à cette distribution lorsqu'on quitte les cellules de la base (cils très courts) pour remonter jusqu'au sommet (cils très longs); le diamètre du canal cochléaire complète cette série puisqu'il s'élargit progressivement de la base au sommet (apex) alors que la rampe tympanique s'amenuise dans les mêmes proportions pour lui faire place...

Tout ceci n'évoque-t-il pas la flûte de Pan, les cordes du clavecin, du piano ou de la harpe ? On n'est donc pas surpris d'apprendre qu'un des premiers résultats de la physiologie auditive fut de montrer que les régions du sommet perçoivent les graves et les régions de la base les aigus... Il s'agit d'une analogie suggestive qui aurait pu (Leipp, 1977a) n'être qu'un éblouissant caprice du hasard. Un certain nombre de constatations nous indiquent plutôt que cette configuration géométrique est au service d'un fonctionnement optimal de l'audition ...

Sur la base des travaux de Pujol et ses collaborateurs ont peut montrer qu'il semble exister une relation linéaire entre la longueur des Cellules Ciliées externes (exprimée logarithmiquement) et la fréquence caractéristique de chacune d'elle (figure ci-dessous) ; c'est à dire la fréquence qu'elles renforcent alors qu'elles amortiront toutes les autres.


Variation de la fréquence codée par les CCE en fonction de leur longueur
(dans diverses espèces animales, y compris l'être humain)

(calculs de B. Auriol sur la base des données de PUJOL R., LENOIR M., LADRECH S., TRIBILLAC, F. and REBILLARD G., 1991 - Correlation within and across species between the length of outer hair cells and the frequency coding of the cochlea. In: "Auditory Physiology and Perception", Cazals, Demany and Horner (eds), Pergamon Press, pp. 45-52)

L'oeil entend-il ?

 

Lenhardt (2007) a stimulé le globe oculaire avec des ultrasons, et montré que l'oeil capte les ultrasons lesquels seraient mécaniquement transmis à la cochlée !

"The eye can serve as an acoustic window to the ear via the intracranial soft tissues. The frequency response is in the low ultrasonic range, and this type of hearing is termed eye conduction. Auditory and vestibular coding is postulated. (Martin L. Lenhardt, Eyes as Fenestrations to the Ears: A Novel Mechanism for High-Frequency and Ultrasonic Hearing, International Tinnitus Journal, 13, 1, Jan-Mar, 2007).

L'audition : mécanisme

Le Nobel pour une théorie séduisante

La théorie classique est celle du cheminement de la vibration tympanique par les osselets. Ces derniers, à leur tour, ébranlent la membrane de la fenêtre ovale, avec un rendement énergétique optimum (fig. 2). A cette première hypothèse, la théorie admise ajoute la suivante formulée par Von Bekesy en 1928. Elle lui valut le prix Nobel de 1961 et rangea sous sa bannière la quasi-unanimité des physiologistes depuis cette date : les vibrations de la fenêtre ovale se transmettraient aux liquides cochléaires, sous forme de vagues - comme celles qu'on voit, à faible profondeur, près du rivage. On aurait alors des déformations concordantes de la membrane basilaire dont le maximum d'amplitude se produirait d'autant plus loin de la base que le son est grave. Cette membrane se comporterait comme une série de filtres passe-bas, mis bout à bout. Cette théorie est dite de " l'onde propagée " ou des " tourbillons " (les vagues) par opposition à l'idée d'Helmholtz pour qui la cochlée se comportait comme une batterie de résonateurs.

Le baron se revanche

Dancer et Franke (1987) ont récemment remis en chantier la deuxième hypothèse, redorant ainsi le blason de von Helmholtz (1863)_.

En fait, la théorie de Von Bekesy avait tiré sa force de ce qu'elle expliquait assez bien des phénomènes_ dont on sait maintenant qu'ils sont du ressort des processus ciliaires actifs. Ainsi devenue inutile, minée par la nécessité d'en appeler de toute façon à des phénomènes de résonance (Sellick et coll., 1982), il devenait urgent de la remettre en question à la suite de Wilson (1983) et de Johnstone (1986). Sans parler des commentaires de Tomatis qui l'avait tenue pour logiquement inacceptable depuis plus de dix ans. Tous ces auteurs adoptent donc l'hypothèse d'une batterie de résonateurs excités simultanément (et couplés plus ou moins étroitement).

A l'issue d'une revue minutieuse des données expérimentales disponibles, Dancer et Franke (1987) concluent : " Il n'existe pas de phénomène hydromécanique significatif que l'on puisse qualifier d'onde propagée. Tout semble plutôt indiquer que la cochlée se comporte comme une batterie de résonateurs, plus ou moins amortis, qui seraient excités simultanément par une onde de pression transmise à la vitesse du son dans la périlymphe vestibulaire ; l'onde propagée, si elle existe, ne serait au plus qu'un épiphénomène ! " La célérité des ondes sonores est plus grande dans l'eau (1 524 m/s) que dans l'air (343 m/s) ; dans la cochlée, cependant, elle est très diminuée en raison du très petit diamètre des canalicules cochléaires (343 m/s < c < 1 524 m/s). Ils insistent aussi sur l'idée que ces résonateurs devraient être très faiblement couplés entre eux. Des mesures directes par sonde capacitive (Wilson, 1973) et par la méthode radioactive de Mössbauer (Rhode, 1971) ont montré que la courbe d'accord mécanique au niveau de la membrane basilaire est d'autant plus pointue que le niveau de stimulation sonore est faible (Khanna et Leonard, 1982). On peut en rendre compte en admettant que le couplage des résonateurs augmente avec l'amplitude des vibrations. Il y a un effet d'inhibition des cellules ciliées externes voisines de celles dont l'amplitude est meilleure. il s'agit d'une augmentation de la sélectivité par renforcement des contrastes.

Il est passé par ici, il repassera par là ?

Nous devons aussi poser quelques questions à propos du cheminement qui conduit la vibration sonore du tympan aux cellules réceptrices. Les classiques la font transiter par la chaîne des osselets dont nous avons vu qu'elle était composée du marteau, de l'enclume et de l'étrier. Il existe aussi deux muscles très actifs l'un pour l'étrier, l'autre pour le marteau (fig. 2).

Transmission par les osselets ?

Pour Von Bekesy et la plupart des physiologistes, la chaîne des osselets assure l'amplification et la transmission de la vibration tympanique à l'oreille interne qui devra en prendre livraison et la coder pour en informer le cerveau. Les mouvements du tympan entraînent le marteau, l'enclume et finalement l'étrier : les pressions reçues par la fenêtre ovale seraient amplifiées 22 fois par rapport au tympan (ce qui correspondrait à un gain de 27 décibels), d'une part en raison du mécanisme de levier attribué à la chaîne des osselets (amplification de x1.3), d'autre part à cause de la différence des surfaces (tympan 10 fois plus vaste que la fenêtre ovale) (fig. 2). Sans cette adaptation, dit-on, la transmission de l'énergie acoustique du milieu aérien au milieu liquidien de l'oreille interne se ferait avec une perte de 999/1 000 ! Un millième seulement de l'énergie source dépasserait la fenêtre ovale, ce qui représenterait une perte de 30 décibels (Burgeat, 1973, p. 46) !...

*

Tomatis fait remarquer le fait, peu encourageant pour la précédente théorie, de la présence d'une sorte de hiatus, d'espace mal serré, entre l'enclume et l'étrier qui s'articulent de manière qu'il décrit comme très lâche. Leipp (1970) énonce une contestation analogue. Un tel hiatus est-il de nature à interdire le classique cheminement du son par les osselets ? Il serait hasardeux de se prononcer de manière péremptoire, d'autant que l'interruption de la chaîne ossiculaire (entre l'enclume et l'étrier selon les expériences de Wever et coll. en 1948) entraîne une chute de 50 décibels dans l'audition ! En revanche, les anciens auteurs prétendaient que la destruction simultanée du tympan et de la chaîne des osselets, si elle conservait un étrier mobile, laissait au sujet une " audition relativement bonne " (Laurens, 1941, p. 130) ! Elle a été, depuis, évaluée à 25 décibels (Fernandez, 1958). De même, P. Josserand (1970) rappelle le phénomène de la " prothèse rétro-myringienne de Yearsley : un malade n'a plus de tympan ni d'osselets. On prend une boulette de coton imprégné de gomme arabique que l'on met au contact de la fenêtre ronde. Le malade gagne 40 décibels sur toute la gamme audible. " Ainsi, la chaîne ossiculaire n'interviendrait que pour 20 décibels ou moins !...

 

Dillon, Margaret T.; Tubbs, Rhonda S.; Adunka, Marcia C.; King, English R.; Hillman, Todd A.; Adunka, Oliver F.; Chen, Douglas A.; Buchman, Craig A., Round Window Stimulation for Conductive and Mixed Hearing Loss, Abstract after Otology & Neurotology: August 8, 2014; doi: 10.1097/MAO.0000000000000525

Objective: Assess surgical complications, postoperative residual hearing, and speech perception outcomes of placement of a middle ear implant on the round window in conductive and mixed hearing loss cases.

Study Design: Single-subject, repeated-measures design where each subject served as his or her own control.

Setting: Tertiary referral medical systems.

Subjects: Eighteen subjects with either conductive or mixed hearing loss who could not benefit from conventional amplification were enrolled in a clinical trial investigating vibratory stimulation of the round window.

Intervention: The floating mass transducer (FMT) was positioned in the round window niche.

Main Outcome Measures: Unaided residual hearing, and aided sound field thresholds and speech perception abilities were evaluated preoperatively, and at 1, 3, 6, and 10 months post-activation of the external speech processor.

Results: Six subjects experienced complications that either required further medical management or resolved on their own. There was no difference in residual bone conduction thresholds or unaided word discrimination over time. All subjects experienced a significant improvement in aided speech perception abilities as compared to preoperative performance.

Conclusion: Subjects with conductive and mixed hearing loss with placement of the FMT in the round window niche experienced improved sound field thresholds and speech perception, without compromising residual hearing thresholds. Vibratory stimulation of the round window via a middle ear implant may be an appropriate treatment option for patients with conductive and mixed hearing loss. Additional research is needed on the preferred placement of the FMT, improvement of functional gain, and methods to limit postoperative complications and need for revision surgery.

Copyright (C) 2014 by Otology & Neurotology, Inc.

La théorie de la transmission par les osselets se pare de résultats expérimentaux nombreux, quoique parfois très discutables : on a, par exemple, mesuré les déplacements de la platine de l'étrier (fig. 2) (Nuttal, 1974) ; or Emile Leipp avait montré, dès 1970, le caractère illusoire d'une telle mesure. Les déplacements vibratoires perçus sont dans certains cas inférieurs au diamètre d'une molécule d'hydrogène, de sorte qu'en dehors des basses fréquences, inférieures à 500 Hz, les mouvements enregistrables sont simplement des fluctuations liées aux contractions accommodatrices des muscles de l'étrier et du marteau dans leur rôle de protection et de discrimination évoqué plus loin. Il en va peut-être autrement de la pression intra-cochléaire (Franke, 1978 - Zwislocki, 1975) dont la mesure semble en assez bon accord avec ce qu'on attend d'une transmission des pressions tympaniques par les osselets.

L'otospongiose est une maladie qui rend sourd en ankylosant la platine de l'étrier. Cette surdité est très améliorée si on enlève les osselets et qu'on les remplace par une prothèse. Ceci va au moulin de la théorie classique. Rappelons cependant que, dans ce cas, on peut aussi améliorer la fonction auditive en pratiquant un nouveau trou, obturé par une membrane, dans la paroi osseuse du canal semi-circulaire (Toupet, 1981). Ce fait me semble appuyer la fonction adaptative du système ossiculaire plus que son rôle éventuel de transmission. De même - toujours dans l'otospongiose -, la paracousie lointaine, qui exagère la sensibilité aux vibrations osseuses quelle que soit leur place dans le corps, met en évidence une transmission qui se fait sans la contribution des osselets et qui manifeste un manque d'adaptation criant !


 

Des mini-muscles mais ils font le maximum

Quelle que soit leur théorie de l'audition, tous les spécialistes admettent l'importante utilité du dispositif ossiculaire avec ses deux muscles (muscle de l'étrier et du marteau : fig. 6). Le muscle du marteau est tenseur du tympan et il augmente aussi la pression dans l'oreille interne. Le muscle de l'étrier jouit de propriétés inverses : il diminue la tension tympanique ainsi que la pression intra-cochléaire (Rouvière, 1932, I, 363). La tension du premier tend à protéger l'ensemble cochléaire des trop fortes variations de pression acoustique, la tension du second permet au contraire plus de mobilité du tympan et plus de variations de pression dans la cochlée. C'est dire que la "gymnastique" des muscles du marteau et de l'étrier devrait avoir pour effet de rendre le système d'écoute à la fois plus robuste (capable de se mettre à l'abri de sons trop puissants) et plus sensible.

Leur mise en tension selon les besoins produit l'augmentation du pouvoir séparateur temporel qui permet de discriminer deux sons très brefs séparés par un silence très court (Leipp, 1970), ainsi que l'atténuation des sons trop intenses (ce qui permet un élargissement de la dynamique), de sorte qu'un animal dont ces muscles ont été coupés devient plus facilement sourd à la suite d'un traumatisme sonore (Roulleau, 1964).

Fig. 5. Diagramme de l'écoute (périphérie).

 

De quoi il faut rapprocher l'amélioration de l'audition des aigus (muscle de l'étrier), que Simmons (1964, cité par Burgeat, 1973) fait intervenir dans les phénomènes d'attention et de charge corticale. La tension du muscle de l'étrier prépare l'oreille chaque fois que nous allons nous exprimer à haute voix. Il atténue ainsi les graves liés aux voyelles et permet de rester apte à entendre ce qui se passe autour de nous quand nous nous exprimons. Par ailleurs, sa mise en tension améliore de 50 décibels l'écoute de la parole humaine lorsqu'elle est noyée dans un bruit de fond important (Borg, 1989).

En revanche, la paralysie de ce muscle entraîne une exagération globale de l'audition, telle que le moindre bruit devient assourdissant. Ceci est à mettre en regard de la théorie tomatisienne selon laquelle le premier travail auditif est de filtrer les bruits gênants de basse fréquence (par exemple le bourdonnement vasculaire, les bruits de fond, etc.).

La mise en tension du muscle du marteau permet l'amélioration de la perception des basses fréquences d'après Hughson (cité par Leipp, 1970). On ne sait déclencher la contraction de ce muscle, en clinique ORL, que par la stimulation de la cornée de l'oeil.

Des contractions différentes dans l'oreille droite par rapport à l'oreille gauche jouent un rôle dans la localisation des sources acoustiques (d'après Möller, Simmons et Legouix cités par Burgeat, 1973).

On a pu montrer que la contraction ou le relâchement de ce système est accessible à la décision volontaire chez certains sujets de manière spontanée et peut-être chez tous après entraînement (par appareil modificateur d'écoute spécialement). Leipp (1970) suppose que " la totalité des musiciens ou des gens soumis à des bruits fluctuants dans leurs activités professionnelles " en bénéficient. Ces muscles agissent comme adaptateurs d'impédance ; ils interviennent pour permettre une plus grande dynamique, protéger l'oreille des sons trop forts, et favoriser la transmission des sons très faibles : aigus (étrier) ou graves (marteau).

Leipp (1977a) et les aigus

Selon lui, les aigus (d'une fréquence supérieure à 10 kHz par exemple) ne peuvent passer efficacement par les osselets. Il rappelle que lorsque la fenêtre ovale est bloquée, l'étrier détruit, on entend moins bien mais on entend encore !

Il fait l'hypothèse d'une transmission aérienne allant du tympan à la fenêtre ronde, directement, en ébranlant l'air de l'oreille moyenne, sans intermédiaire osseux ! Il considère que l'objection basée sur la forte impédance de la fenêtre ronde, due à ce qu'elle est une interface air/eau, est seulement valable pour les fréquences moyennes ou basses mais perd sa pertinence au-delà de 10 kHz. D'autre part, la partie du tympan la plus sensible aux aigus, au-dessous du manche du marteau, est juste en face et très proche de la fenêtre ronde.

Ces observations sont reprises de manière plus détaillée et argumentée par Jahn and Santos-Sacchi (2001).

 

Transmission par la pyramide pétreuse ?

Tomatis (1974b) avance l'idée qu'il pourrait s'agir d'une transmission osseuse : le tympan stimulé, en mobilisant son pourtour, comme la corde du violon en fait vibrer l'âme, mettrait en branle l'os pétreux, dans lequel est logé tout le système. Cette hypothèse inattendue n'est pas sans intérêt et s'appuie sur une première constatation : la conduction osseuse existe bel et bien et se montre tout à fait efficace lorsqu'on applique un vibreur sur la peau de la mastoïde, du front, du vertex ou de toute autre partie du crâne ! Elle serait surtout performante dans les aigus (Viaud, 1967, p. 605).

Les pressions significatives mesurées sur le cadavre humain après interruption de la chaîne des osselets, pour certaines fréquences aiguës (> 4 kHz) au niveau des scalae vestibuli and tempani, suggèrent qu’il existe une autre voie de transmission que les osselets : probablement une voie de conduction osseuse (Nakajima et al., 2009), ce qui avait été suspecté dès 1967 (Viaud et al., 1967: 605; Tomatis, 1974b ; cf. aussi Leipp, 1977).

référence : Nakajima Hideko Heidi, Dong Wei, Olson Elizabeth S., Merchant Saumil N., Ravicz Michael E., and Rosowski John J., Differential Intracochlear Sound Pressure Measurements in Normal Human Temporal Bones, J Assoc Res Otolaryngol. 2009 March; 10(1): 23–36

 

Est-ce le piston qui fait marcher la machine ?

Nous verrons (p. 36) que l'écoute se fait grâce aux cils des cellules cochléaires. Ces cils sont orientés, de sorte que la cellule ne réagit qu'à la composante du mouvement qui est parallèle à sa direction caractéristique propre !

Cette directivité semble sans utilité ; à moins de contester le schéma de Von Bekesy, non seulement au niveau de la seconde hypothèse (dont nous venons de voir combien elle est devenue fragile), mais aussi en ce qui concerne la première et la mieux reçue : la transmission des vibrations par la chaîne des osselets agissant comme un piston (Guinan, 1967 ; cité par Burgeat, 1973) pour déclencher les phénomènes vibratoires intra-cochléaires.

Il est important de prendre ici en considération la complexité des structures anatomo-histologiques de la cochlée. On commence à envisager que la stimulation sonore passerait à la fois par l'onde de Von Békésy dans l'axe de la rampe vestibulaire et par des phénomènes de résonance locale, selon une direction radiaire, mettant en jeu la géométrie de la membrane basilaire comme les phénomènes actifs propres aux cellules ciliées externes. Ces petites unités musculaires se contracteraient au maximum au passage de la vague de Békésy et augmenterait dans de très grandes proportions la perception de la fréquence correspondante. Ceci, tout en inhibant l'activité des cellules ciliées externes voisines (d'où une très puissante augmentation de la sélectivité). Ce phénomène n'est peut-être pas lui même indépendant de mécanismes plus exotiques, telle la mise en jeu des propriétés piézo-électriques de l'os; ici, de l'os temporal (cochléaire) dont on sait qu'il est le plus (ou un des plus) dense du squelette.

Si on refuse au piston ossiculaire son rôle d'amplification et de transmission, on le regardera comme un simple dispositif de régulation : le son cheminerait par la boîte crânienne (via la pyramide pétreuse) et non par les osselets qui auraient plutôt un rôle d'accommodation ; les vibrations du labyrinthe déclencheraient des phénomènes localisés, en raison de la géométrie de la cochlée, de telle sorte qu'il y aurait stimulation transversale des cellules réceptrices et formation secondaire de tourbillons liquidiens. Cette ingénieuse construction est affaiblie, au moins dans son versant critique, par l'étude expérimentale directe à l'aide d'une sonde à pression miniature : Dancer et Franke (1979) ont ainsi démontré l'existence de variations initiales de pression, en conformité avec la théorie classique. Il se pourrait cependant que ces variations traduisent l'accommodation permanente du système pour éviter un éblouissement par les sons de basse fréquence.

 

La conduction osseuse

Il est remarquable que la théorie commune méprise l'écoute par conduction osseuse qu'elle a beaucoup de mal à expliquer clairement. C'est ainsi qu'on déclarait aux étudiants (Burgeat, 1973) que la boîte crânienne connaît deux modes vibratoires : l'un par translation, l'autre par compression.

Dans les deux cas, les sons (aigus surtout), adressés par vibreur, deviendraient impossibles à localiser et les auteurs font état d'une pseudo-constatation selon laquelle il en serait bien ainsi. Hirsh (1956, p. 286) renchérit : " Il est pratiquement inconcevable que l'on puisse exciter une seule cochlée quand on applique un corps vibrant sur le crâne " ! C'est une position controuvée, en désaccord avec une observation sans préjugé (Legouix cité par Burgeat, 1973, p. 95). Il est vrai que les sons proposés en conduction osseuse entraînent plus d'erreurs de localisation qu'en conduction aérienne, mais la qualité de cette perception est souvent très convenable. Elle est, de plus, amendable par l'entraînement !

Pour qu'il y ait localisation, il faut qu'intervienne entre les deux cochlées, pour les aigus une différence d'intensité, pour les graves une différence de phase. Il est vrai que l'os vivant, étant un milieu de structure intermédiaire, à mi-chemin entre un état solide et un état liquide, le son y cheminera beaucoup plus vite que dans l'air. Les différences entre les deux côtés représenteront un temps plus court (pour la phase). L'amortissement, pour les aigus est suffisant pour être détecté, grâce non seulement à la distance parcourue qui sera différente, mais aussi aux variations d'impédance liées aux jonctions entre les os du crâne. Rappelons que la précision de localisation, en conduction aérienne, peut atteindre trois degrés (et même moins). Le calcul montre qu'elle est alors assurée par des différences de temps de l'ordre de 0,00001 seconde (Viaud, 1967, t. II, p. 608) !

Le système des cavités pneumatiques intra-pétreuses (notamment mastoïdiennes)

Il est, par ailleurs, curieux d'observer que les physiologistes, s'ils décrivent avec minutie les différents éléments de l'appareil auditif, négligent de s'intéresser au rôle de l'un d'entre eux : les cellules mastoïdiennes qui semblent n'être là que pour inquiéter les ORL (la fameuse " mastoïdite "...).

Leur situation en arrière de la caisse du tympan, leur forme, les désignent pourtant comme des résonateurs dont on sait l'importance en acoustique. On doit supposer qu'elles sont utiles à l'audition : par analogie avec les cavités résonantes des instruments de musique dans lesquels la source vibrante est couplée à des cavités propres à lui donner une certaine ampleur. Ce rôle de résonateur serait de peu d'usage dans la théorie classique : on n'en voit l'importance que pour la conduction osseuse (et la conduction aérienne intra-tympanique, si E. Leipp a raison).

Onchi (cité par Aubry, 1968) a réalisé des expériences sur des cadavres. Elles démontrent que ce système de cavités facilite les sons au-dessous de 1 kHz et les affaiblit entre 1.5 et 4 kHz. Ainsi, les fréquences " conversationnelles " sont très amoindries : est-ce une façon d'atténuer la conduction osseuse par rapport à la conduction aérienne, notamment quand le sujet s'exprime vocalement (fig. 6) ?

 

Bone Conducted Sonic and Ultrasonic Signals in Hearing Assessment
N.Schiopu, H.Kunov, P.Madsen (Institute of Biomedical Engineering, University of Toronto)

Une prothèse auditive ou la chirurgie améliorent souvent la qualité de l'écoute chez les patients présentant des troubles auditifs. Habituellement, on utilise une prothèse auditive en conduction aérienne. Un tel dispositif amplifie les vibrations de l'air et les transmet à l'oreille externe du patient.

Dans certains cas (comme les malformations congénitales du canal auditif ou les maladie chroniques de l'oreille moyenne), si la chirurgie reconstructrice échoue ou ne peut pas être exécutée, une prothèse auditive en conduction osseuse sera employée. Dans ce cas, le dispositif conventionnel est appliqué à la mastoïde (la structure osseuse située derrière l'oreille) avec une force constante afin de réduire au minimum l'atténuation du signal due à la peau et aux tissus mous. En raison de la pression exercée par ce dispositif, on peut observer une irritation de la peau avec la gène qui en résulte. En outre, la prothèse auditive est inconfortable et son rendement est faible à cause de l'atténuation du signal par la peau et les tissus mous.

La prothèse auditive directe en conduction osseuse est fixée à une vis en titane implantée dans la mastoïde. Cette méthode d'ancrage permet une pénétration sans contre-réaction et un contact rigide avec le massif osseux mastoïdien. Selon un sondage auprès des patients, ce type de dispositif donne une meilleure qualité de son, est plus confortable, et plus esthétique. En raison de l'atténuation réduite du signal, des niveaux plus faibles du signal de sortie sont suffisant pour fournir une qualité similaire de la perception.[ Hakansson, 1985]

Le niveau du signal de sortie de la prothèse en conduction osseuse doit être calibré et les possibilités d'entendre en conduction osseuse par le patient doivent être évaluées. On utilise généralement une mastoïde artificielle pour calibrer le niveau du signal de sortie de cette prothèse. On simule ainsi l'atténuation due au passage par la peau et les tissus mous dans la gamme des fréquences conventionnelles (250-4000Hz) ainsi que l'impédance mécanique d'une tête humaine "moyenne". Son signal de sortie peut être mesuré grâce à la connexion d'un sonomètre. Pour évaluer le seuil d'audition du patient en conduction osseuse, on fournit au sujet des signaux audio à l'aide d'un dispositif piézoélectrique ou magnétique (vibrateur osseux) placé sur le front ou sur une des mastoïdes. Comme l'audiométrie conventionnelle, cette méthode de recherche peut permettre de différencier une surdité de conduction d'une surdité de perception.

La conduction osseuse électrique utilise deux électrodes recouvertes de mylar pour fournir des signaux modulés en amplitude à la tête du patient. Les électrodes peuvent être placées dans diverses positions c.-à-d. une sur chaque mastoïde ou bien une sur le front et l'autre sur un bras. Un signal porteur de 60kHz est modulé par le signal audio et envoyé aux électrodes. Le volume du signal perçu est proportionnel à l'amplitude du courant injecté, puisque le patient est capacitivement couplé à l'instrument [Tonndorf, 1984].

L'existence d'une perception sonore résultant de stimuli ultrasoniques en conduction osseuse dans les fréquences allant de 20 kHz jusqu'à 100 kHz a été démontrée déjà dans les années cinquante. La hauteur du signal perçu est décrite comme allant de 11 kHz et 13 kHz, avec une courbe d'audibilité en conduction osseuse s'étendant jusqu'à 100 kHz pour des sujets otologiquement et audiométriquement normaux. Les tests auditifs dans les hautes fréquences peuvent avoir un avenir dans la détection précoce des dommages de cellules ciliées par utilisation de drogues ototoxiques aussi bien que pour distinguer divers types de désordre auditif [Abramovich, 1978].

On a montré [Lenhardt, 1991] que des signaux vocaux modulés en amplitude par la parole dans la gamme de fréquence proche-ultrasonique et fournis par un vibrateur osseux peuvent être perçus, même par des sujets à l'audition déficiente. En tant qu'élément d'une étude en cours, le volume perçu des signaux ultrasoniques fournis à un sujet par vibrateur a été calculé pour des signaux dans la gamme de fréquence 20 kHz à 52 kHz aux niveaux d'entrée du vibrateur de 10, de 15 et de 20 Vpp (voltage crête à crête). Le volume perçu était évalué sur une échelle de 0 à 10 quand le vibrateur a été placé soit sur le front du sujet soit sur chaque mastoïde: ce volume perçu croit de manière monotone en fonction de l'amplitude du signal d'entrée au niveau du vibrateur. En tous les cas un niveau de volume maximal a été obtenu à des fréquences test centrées sur 41 kHz, avec une asymétrie marquée entre l'oreille droite et l'oreille gauche, probablement en raison de seuils d'audition différents. On envisage de poursuivre cette recherche afin d'évaluer la faisabilité pratique d'une utilisation de la stimulation auditive ultrasonique.

Hearing aid or surgical procedures often improve the quality of hearing in patients with auditory disorders. Usually, an air conduction hearing aid is used. This device receives and amplifies airborne signals and transmits them into the patient's external ear canal.

 

In some cases such as congenital malformations of the external ear canal and the middle ear or chronic middle ear disease, if reconstructive surgery fails or cannot be performed, a bone conduction hearing aid is used. The conventional bone conduction device is applied to the mastoid process (the bony structure behind the ear) with a constant force in order to minimize signal attenuation across the skin and soft tissue. Because of the pressure applied by the device skin irritation and discomfort can result. In addition, the hearing aid is uncomfortable to wear and has poor performance due to signal attenuation in the skin and soft tissue.

 

The direct bone conduction hearing aid is attached to a titanium screw implanted in the bone of the mastoid process. This anchoring method provides a reaction-free penetration and a rigid contact with the mastoid bone. Based on a patients' survey, this type of device gives better sound quality, is more comfortable to wear, and has better aesthetics. Due to reduced signal attenuation, lower output signal levels are needed to provide a similar perception quality [ Hakansson, 1985].

A bone conduction hearing aid's output signal level must be calibrated and the patient's bone-conducted hearing capability must be assessed. The artificial mastoid is the instrument widely used to calibrate the output signal level of the bone conduction hearing aid. It simulates the attenuation of the skin and soft tissue in the conventional frequency range (250-4000Hz) and the mechanical impedance of the average human head. Its output signal can be fed to a sound level meter and measured in force level units. To assess the patient's bone-conducted hearing threshold level, audio signals are delivered to the subject by means of a piezoelectric or magnetic device (bone vibrator) placed on the forehead or one of the mastoids. Together with conventional audiometry, this investigation method can also be used to discern between conductive and sensorineural hearing loss.

 

Electric bone conduction uses two mylar-coated electrodes to deliver amplitude- modulated signals to the patient's head. The electrodes can be placed in various positions i.e. on the two mastoid processes or on the forehead and one arm. A 60kHz carrier signal is modulated by the audio signal and then sent to the electrodes. The loudness of the perceived signal is proportional to the amplitude of the injected current, since the patient is capacitively coupled to the instrument [Tonndorf, 1984].

The existence of sound perception due to ultrasonic bone-conducted stimuli in the 20 to 100kHz frequency range has been demonstrated as early as the 1950's. The pitch of the perceived signal is described as being between 11 and 13kHz, with a bone conduction audibility curve ranging up to 100kHz on otologically and audiometrically normal subjects. High-frequency hearing tests may have potential in early detection of hair cell damage due to the use of ototoxic drugs as well as in discriminating between various types of hearing disorders [Abramovich, 1978].

More recently [Lenhardt, 1991], it has been shown that speech amplitude-modulated signals in the near-ultrasonic frequency range and delivered through a bone vibrator can be perceived, even by hearing impaired subjects. As part of an ongoing study at the Institute, the perceived loudness of ultrasonic signals delivered to one subject through a custom-made bone vibrator has been derived for signals in the frequency range 20 to 52kHz at bone vibrator input levels of 10, 15 and 20 Vpp (Vpp = peak-to-peak voltage). The perceived loudness was rated on a scale from 0 to 10 when the bone vibrator was placed on the subject's forehead and on each mastoid and it varied monotonically with the amplitude of the input signal to the bone vibrator. In all cases a peak loudness level was obtained at test frequencies centered on 41kHz, with a marked asymmetry between the right and left ear, probably due to different hearing threshold level of the subject. Further investigation will be undertaken in order to assess the feasibility of otoacoustic emission stimulation using ultrasonic excitatory signals.

 

References:


1- B. Hakansson, A.Tjellstrom, U.Rosenhall: 'Acceleration Levels at Hearing Threshold with Direct Bone Conduction Versus Conventional Bone Conduction', Acta Otolaryngology, 100:240-52, 1985
2 - J.Tonndorf, B.Kurman: 'High Frequency Audiometry', Annals of Otology, Rhinology & Laryngology, 93:576-82, 1984
3 - S.J.Abramovich: 'Auditory Perception of Ultrasound in Patients with Sensorineural and Conductive Hearing Loss', Journal of Laryngology & Otology, 92(10):861-7, 1978
4 - M.L.Lenhardt, R.Skellet, P.Wang, A.M.Clarke: 'Human Ultrasonic Speech Perception', Science, 252:82-5, 1991

 

 

Dans le cas ordinaire du sujet " bien écoutant ", la perception en conduction osseuse est tout à fait comparable à l'aérienne ; à ceci près que le vibreur, pour communiquer un ébranlement suffisant doit être appliqué avec des amplitudes supérieures : mais il existe entre l'appareil et l'os des tissus mous qui gênent leur solidarisation par simple contiguïté... Par ailleurs, le couplage entre le tympan et le sillon osseux dans lequel il s'encastre pourrait être tout à fait performant, à l'image de la peau de tambour sur sa caisse. Un argument de poids alimente cette thèse : l'acuité auditive est détériorée non seulement lorsqu'on observe une lésion de la chaîne des osselets, mais aussi, quoique différemment, lors des maladies affectant la structure de l'os, spécialement du " rocher " (Henkin, 1972). A notre charge de montrer qu'une telle détérioration n'affecte pas suffisamment les osselets eux-mêmes pour que les modifications perceptives observées ne puissent s'expliquer à ce seul niveau !

Des chercheurs toulousains (Bruno Piérot) ont proposé avec succès un système de communication sonore dans l'eau, utilisant la conduction osseuse. Beethoven avait déjà utilisé ce principe : il glissait entre ses machoires une planchette reliée aux cordes de son piano dont il pouvait ainsi, malgré sa surdité, percevoir les sons. Le son se propage plus vite dans l'eau que dans l'air mais le tympan humain n'est pas adapté à transmettre à la cochlée ces vibrations aquatiques. On peut utiliser un signal électrique - que transmet convenablement l'eau salée sur une distance de quelques dizaines de mètres - pour véhiculer le son et le retransformer en vibration à l'arrivée, vibration utilisée au niveau des machoires... Les dauphins utilisent une écoute via leur machoire inférieure et sans besoin d'électricité ! (cf.National Geographic, 3.2, N°11, Aout 2000)

Une firme japonaise propose des appareils similaires "VOICEDUCER bone conduction Headgear HG17 series". Les vibreurs sont placés au niveau des tempes et le microphone capteur de vibrations est placé au sommet du crâne. On obtient ainsi une communication claire, notamment en ambiance très bruyante, avec l'intérêt supplémentaire de pouvoir utiliser des bouchons d'oreille afin de s'abstraire du vacarme de l'environnement.

 

Une machine à faire du silence ?

Le bruit d'une respiration normale (Bosser, 1985), proportionnel au débit de l'air, n'est pas négligeable, notamment au niveau du thorax et de la glotte où il est aussi important à l'expiration qu'à l'inspiration. Sa fréquence s'étend des graves jusqu'à 1 kHz avec un maximum vers 230-240 Hz (fréquence de résonance du thorax) où il peut atteindre 50 dB !

Fig. 6. Cellules mastoïdes (coupe frontale).

 

Dessin extrait de P. Tillaux (1903) / apophyse mastoïde ; P peau ; / LS sinus latéral ; R rocher / M muscle auriculaire postérieur ;

 

Il faut remarquer l'étroite proximité de l'artère carotide (Testut, 1905, p. 312) et de la cochlée : le cheminement de cette artère dans l'os ne saurait se faire sans l'ébranler au rythme des battements cardiaques ; or le système auditif nous épargne ce vacarme et Tomatis semble fondé à dire que l'oreille est au moins autant une machine à faire du silence qu'un capteur sonore.

Rappelons la paracousie lointaine qui permet aux malades atteints d'otospongiose d'entendre le diapason qu'on applique... à leur rotule (test de Bonnier) ! C'est dire combien la chaîne des osselets est importante pour affaiblir les bruits internes ou externes gênants, spécialement les fréquences les plus graves qui ont un effet masquant. Les mouvements de piston de l'étrier, qui existent bien, pourraient constituer un adaptateur d'impédance et se laisser comparer au diaphragme de l'iris relativement à la quantité de lumière. A moins qu'on n'envisage une compétition fonctionnelle entre écoute aérienne véhiculée par le piston ossiculaire et écoute osseuse transmise de tout point osseux du corps à la pyramide pétreuse et par là, à la cochlée. Cette compétition pourrait avoir plusieurs aspects et concerner notamment la perception intériorisée par rapport à la perception visant les sons externes.

Deux voies ?

Quant à nous, forts d'une longue pratique de l'audiométrie archi-répétitive chez chacun de nos clients, nous croyons savoir que les distorsions en courbe osseuse et aérienne peuvent être indépendantes, ce qui implique qu'au moins en un maillon de la chaîne qui va du son aux fibres réceptrices les mécanismes de transmission osseuse et aérienne soient différents. Il n'est pas suffisant, pour s'en expliquer, de faire appel aux mécanismes régulateurs de l'oreille moyenne seule : en effet, il peut s'agir de variations importantes touchant des fréquences proches. On dirait qu'il existe un contrôle cochléaire ou supra-cochléaire différencié selon la provenance du son : quand le tympan est porteur d'une stimulation importante et en tout cas supérieure aux vibrations osseuses, un premier type de contrôle interviendrait aboutissant à la courbe d'écoute aérienne ; quand l'inverse a lieu (stimulation par vibreur, émission vocale, etc.), un second type de contrôle prendrait le relais, rendant compte de la courbe d'écoute osseuse. Hypothèse audacieuse, mais à laquelle je ne vois pas comment échapper...

Ainsi lorsque l'auditeur d'autrui se transforme en locuteur (et en auditeur de soi), il passerait de l'écoute aérienne à l'écoute osseuse. Cela implique deux façons distinctes, voire très divergentes, de traiter le signal au niveau cochléaire et supra-cochléaire et constituerait une explication du phénomène de l'enregistrement de soi non reconnu : le sujet éprouve sa propre voix enregistrée fidèlement comme très différente de celle qu'il a cru émettre... Le même pattern sonore a subi deux traitements divergents qui le rendent méconnaissable pour le locuteur, quoique parfaitement reproduit aux oreilles de tous les autres.

En utilisant un vibreur capable d'une suffisante fidélité, on devrait pouvoir administrer la contre-épreuve, à savoir : faire écouter l'enregistrement du locuteur par conduction osseuse ; il devrait alors trouver l'enregistrement beaucoup mieux reconnaissable qu'en écoute aérienne.

Examinons dans cette perspective le très classique test de Weber (ou celui, plus sophistiqué de Sullivan). Son mécanisme est mal élucidé parce que mal élucidable dans la théorie békésienne ! Il s'agit d'appliquer un diapason excité au sommet du crâne, très exactement au milieu du méridien des oreilles. Ce faisant, le sujet présentant une hypoacousie unilatérale entend soit du côté sain (problème cochléaire), soit du côté malade (atteinte de l'oreille moyenne). Ce deuxième cas est réalisé aussi lorsque le conduit auditif est bouché par du cérumen ou même avec le doigt... Ce phénomène concerne les basses fréquences inférieures à 2 500 Hz environ. Pour les aigus il disparaît.

Ici, comme dans le test de Bonnier (cf. plus haut), tout se passe comme si une oreille moyenne moins ou pas efficace entraînait une meilleure performance de l'écoute osseuse : cela peut être dû à l'interférence des bruits aériens survenant du côté sain, mais on peut également invoquer l'hypothèse que nous avons formulée il y a quelques instants d'un antagonisme relatif entre écoute aérienne et écoute osseuse. A ce moulin va l'eau des bruissements qu'on entend là où il n'y a plus de bruit : en chambre " sourde ". L'oreille n'est pas bouchée mais ne reçoit aucun son " aérien " ; alors apparaît cet acouphène si particulier, si étonnant, ce bruit de souffle, qui vient sans doute du corps, par l'os... Ou bien doit-on avec Alfred Tomatis admettre que l'oreille moyenne est surtout un instrument " à faire du silence " sur les bruits internes, en contractant par exemple le muscle de l'étrier, ce qui éteindrait les bruits corporels et favoriserait les aigus ?... Barany (1938) pense, lui, que c'est l'appareil auditif pris dans son ensemble qui tend à minimiser les effets de la conduction osseuse : mastication, respiration, circulation du sang, etc. Bekesy a pu montrer que nous ne percevons pas nos propres voix avec l'intensité (intolérable) qu'elles devraient avoir par le cumul de la conduction osseuse et de la conduction aérienne (Hirsh, 1956, p. 285).

L'expression " crier comme un sourd " se réfère à une atténuation de l'écoute aérienne, c'est le cas du sujet qui tient à se faire entendre de l'extérieur et contrôle l'amplitude de sa propre voix par le canal extérieur (attitude extravertie).

L'interlocuteur s'insurge : " Je t'entends ! Ne crie pas si fort ! " Au contraire, celui qui a une " voix sourde ", parle " entre ses dents ", comme s'il ne parlait qu'à lui-même. De fait il ne prend conscience de son trouble que s'il prête attention aux incessantes demandes qu'il reçoit de hausser le ton (attitude introvertie).

Perspectives de recherche

Il conviendrait de vérifier très soigneusement l'existence et la stabilité à moyen terme de courbes hectiques divergentes en conduction osseuse et en conduction aérienne. Si cette recherche s'avérait positive, la suggestion faite ici d'un double traitement de l'information en fonction de la voie prédominante de transmission prendrait beaucoup de poids...

Qu'il y ait deux voies demande à peine démonstration et déjà Von Békésy a pu montrer qu'il est loisible de supprimer l'audition d'une fréquence donnée par voie osseuse et aérienne de manière distincts. Il suffit pour les faire taire toutes deux de modifier convenablement (en tâtonnant) l'amplitude et la phase d'un des deux canaux...

Des cils sourds !

Le canal cochléaire comporte (fig. 4) des cellules ciliées internes (3 500 formant une seule rangée) et des cellules ciliées externes (12 000 disposées sur trois ou quatre rangs). Ces deux types de cellules se sont d'autant plus différenciées qu'on s'élevait dans l'évolution des espèces.

Les cellules ciliées de mammifère commencent déjà à réagir alors que l'extrémité du pinceau de cils se déplace de moins de 100 picomètres (soit 0,000 000 000 1 m, ce qui est à peine le diamètre de certains atomes !) (Hudspeth, 1983). Les souris dépourvues de cellules ciliées internes sont totalement sourdes, même si elles conservent leurs cellules ciliées externes (Deol, 1979). Ce sont donc les premières qui sont directement réceptrices.

L'altération des cellules ciliées externes, même en conservant de bonnes cellules ciliées internes, engendre une écoute grossière, mal différenciée, peu sélective et annonce bien souvent la surdité. La membrane basilaire qui les supporte ne démontre sa parfaite sensibilité par résonance que si les cellules ciliées externes marchent bien. Elles sont donc nécessaires et il faut leur accorder, avec Rémy Pujol (1987), un rôle de préampli (comme dans une chaîne hi-fi).


 

Il a des bourdonnements d'oreille : elle ne peut dormir !

Les bruits (acouphènes) dont se plaignent certains patients, assiégés en permanence et sans grand moyen de défense, sont parfois des bruits réels (pouvant dans un cas atteindre 60 dB SPL). L'oreille est non seulement un récepteur, mais aussi un générateur de sons : on parle d'" oto-émissions acoustiques spontanées ".

Kemp (1978) généralise ce résultat. Il a montré que si l'on envoie un son dans l'oreille, celle-ci renvoie une sorte d'écho : elle reproduit un son identique, très rapidement ; ce deuxième son est parfaitement objectif et enregistrable ! Il s'agit alors d'" oto-émission acoustique provoquée ".

Cette réponse existe déjà pour des stimulations en dessous du seuil d'audition (elles peuvent être inférieures de 10 dB à ce seuil, c'est-à-dire qu'elles sont beaucoup plus sensibles). Cette constatation explique peut-être la possibilité, dont nous reparlerons, d'améliorer l'audition par l'entraînement (sous couvert d'un appareil modificateur d'écoute convenable).


image de Turk et Degroot
Léonard (3); c'est un quoi déjà ?
Dargaud-Lombard, Bruxelles
p.10, ligne 4 G - 2010

 

Rôle des externes

Les cellules ciliées externes ont un rôle d'amplification ou, au contraire, d'amortissement selon les sons qui leur parviennent. Elles font vibrer activement (Wilson, 1983) tous leurs cils lorsque le plus long d'entre eux se trouve déformé. Cette vibration est d'une fréquence particulière suivant le lieu de la cochlée où l'on se place. Si la fréquence du son extérieur et celle des cils coïncide, il y a résonance entre les deux et très forte amplification. Au contraire, lorsque la fréquence propre de la cellule ciliée externe diffère de celle du son, en particulier si ce dernier est plus grave, un amortissement se produit.

Le système ne réagit, en chaque point, qu'à la " fréquence propre " de ce lieu. On dit qu'il est sélectif. C'est ce qui nous permet de distinguer les sons les uns des autres, de pouvoir les analyser, leur donner un sens, etc. Sans cela, nous entendrions seulement du bruit, quel que soit le son parvenu à notre oreille. Des phénomènes électro-physiologique renforceront encore la distinction entre fréquences voisines. En effet, les cellules ciliées externes réagissent aux déformations dont elles sont le siège, du fait des sons, par l'émission à leur base d'un potentiel électrique. Il est dénommé " potentiel microphonique " car il suffit de l'amplifier et de l'envoyer à un haut-parleur pour entendre ce que l'oreille reçoit ! On pense qu'il peut relayer l'excitation mécanique, ou au moins s'ajouter à elle, pour informer les cellules ciliées internes. La cochlée réunirait donc un récepteur acoustique et un récepteur électrique.

Les cellules externes reçoivent beaucoup de fibres en provenance du cerveau. Ces fibres pourraient avoir le rôle de renforcer ou d'affaiblir la sensibilité pour telle ou telle fréquence : l'affaiblir en cas de stimulation répétitive non informative (habituation), en cas de stimulation excessive (saturation) ; la renforcer en cas d'événement sonore imprévu, faible en intensité ou sous l'effet d'une attention aiguisée, pour détecter un pattern précis correspondant à un désir ou une crainte (le chien dresse l'oreille quand son maître approche !). Il ne s'agit pas toujours d'attention volontaire. Un bruit insignifiant pour la conscience peut avoir du poids pour les attentes inconscientes, et submerger la plus farouche des envies de ne pas entendre. Réciproquement, " il n'est pire sourd... "

Par ailleurs, les oto-émissions de l'oreille droite diffèrent de celles de l'oreille gauche, ce qui nous permet d'envisager une spécialisation dans leurs fonctions et leurs attentes.

Rôle des internes

Les cellules réceptrices du système nerveux sont donc les cellules ciliées internes : quand aucun son n'intervient, c'est selon un rythme assez lent, et apparemment au hasard, qu'elles émettent leurs décharges excitatrices.

Si un événement vibratoire proche de leur fréquence d'accord surgit, les cellules réceptrices (cellules ciliées internes) répondent par une flambée d'impulsions dont le rythme décroît si la stimulation se prolonge : on dit qu'elles s'y adaptent. Le silence revenu, les excitations disparaissent tout à fait pour reprendre, peu à peu, leur rythme de repos (quelques rares impulsions survenant au hasard). Dans les basses fréquences, la décharge des fibres suit assez bien le rythme du son : pour un hertz, une impulsion nerveuse ; cela n'est plus possible au-delà de 2 000 hertz et un codage prend le relais.

Si, au lieu de considérer les neurones isolés, nous enregistrons ce qui se passe dans l'ensemble du nerf, nous obtenons un potentiel d'action composite : ce sont les cellules chargées de recevoir les aigus qui contribuent le plus à sa formation, montrant, dès ce stade, leur importance... C'est aussi du côté des aigus que la sélectivité_ est maximum : une fibre donnée ne réagit à aucun des sons plus élevés que sa fréquence propre. Elle réagit - quoique de manière atténuée - aux sons plus graves.

Les fibres provenant d'une même région restent voisines dans leur voyage, si bien que le nerf montre une organisation " tonotopique " qui persistera aux étages supérieurs et jusque dans le cortex (cf. plus loin le tableau Tonotopie).

Mécanismes de rétrocontrôle

Nous avons brièvement évoqué les phénomènes régulateurs liés au fonctionnement des muscles de l'oreille moyenne. Ces formations minuscules manipulant des os lilliputiens revêtent une très grande importance. Non seulement ils nous évitent certaines lésions par traumatisme sonore, mais encore ils permettent une adaptation d'impédance, une " visée " grossière du son, l'un se tendant à l'écoute des graves, l'autre à celle des aigus.

Ce dispositif de focalisation sur certaines qualités du son n'est pas isolé : il existe des mécanismes centraux dont les plus complexes nous sont accessibles par la recherche psychologique et psychanalytique : mots qu'on n'entend pas, lapsus auditu, etc. D'autres phénomènes de contrôle sensoriel, plus simples, ont été mis en évidence par la neurophysiologie (comme les illusions sonores perceptives). Enfin et surtout, nous devons insister sur l'existence, maintenant bien établie, de mécanismes beaucoup plus fins. Notre cerveau sensibilise la cochlée à tel ou tel ensemble sonore, suit son évolution dans le temps, atténue les fréquences qui pourraient le masquer. Ces commandes arrivent à la cochlée par les fibres efférentes de Rasmussen_.

Ces actions efférentes se font, pour l'essentiel, par le biais des contractions actives des cellules ciliées externes. Comme il s'agit de formations contractiles, il n'est pas absurde d'imaginer qu'elles soient prises dans un feed-back, comparable à la boucle gamma_ qui prend en charge le " tonus musculaire ". Il existerait alors un " tonus de l'écoute ", d'où les variations de performance audiométrique selon l'heure de la journée ou le degré d'éveil. Les potentiels évoqués auditifs (ondes cérébrales enregistrées au cours d'une stimulation sonore répétitive) sont très modifiés par le sommeil : quant à leur latence et quant à leur forme. S'expliquerait de la même façon certaines constatations quotidiennes ; par exemple, les variations de l'intensité et du timbre des sons, perçus à l'assoupissement, devant la télé ou face à l'orateur.

On sait, depuis les travaux de Hoff et Silbermann (Gutton, 1967) sur des blessés crâniens (le cerveau étant insensible, certaines opérations neurochirurgicales peuvent se dérouler avec une simple anesthésie locale), que certaines excitations du cortex temporal peuvent conduire à une plus grande sensibilité de l'écoute (hyperacousie relative) ! C'est dire que les centres nerveux pilotent, pour les améliorer ou les affaiblir, les performances cochléaires.

Rappelons notre hypothèse " des deux voies " pour dire que la distinction des sons " osseux " et des sons " aériens " pourrait se faire selon le modèle suivant : les vibrations osseuses stimulent directement les cellules ciliées internes proches justement de la lame osseuse du limaçon. Les événements " aériens " bénéficieraient du prétraitement qu'on attribue aux cellules ciliées externes et à leur activité de type musculaire, avant d'être enregistrés à leur tour par les cellules ciliées internes. Ceci rejoindrait une des théories du codage des intensités qui envisage " deux systèmes transducteurs commandant deux voies à dynamique différente " : l'une implique les cellules ciliées externes et coderait les intensités de 0 dB à 90 dB, l'autre mettrait en jeu uniquement les cellules ciliées internes et permettrait les sensations de 90 à 120 dB (Burgeat, 1973, p. 86).

La cochlée : une usine chimique

Le message auditif (cellules ciliées internes / fibres nerveuses) utiliserait le glutamate ou un corps analogue. Ce message est contrôlé par des enképhalines et du GABA sécrétés par le système efférent latéral.

Le système de préamplification est surtout géré par le système efférent médian qui lui envoie de l'acétylcholine (se montrant en cela identique aux synapses des muscles striés). Leur inhibition se fait mieux par anesthésie à l'uréthane. On peut conclure de ces données une " influence certaine du système nerveux central " sur les mécanismes actifs (oto-émissions) (Robertson, 1985).

On trouvera ici une magnifique synthèse des données actuelles sur le fonctionnement cochléaire.

Les formations nerveuses sous-corticales

Je crois inutile et fastidieux de développer ici toute l'architecture anatomique et histologique de ces formations extrêmement complexes (cf. fig. 7). Elles permettent une analyse très poussée du son perçu : quant à sa provenance (par comparaison de l'intensité pour les hautes fréquences et de la phase pour les basses fréquences), quant à sa nature (par analyse des composants fréquentiels et de leurs amplitudes respectives), quant à sa dynamique (modulation de fréquence, modulation d'amplitude). On y a même découvert certains détecteurs phonétiques (Keidel, 1974).

Fig. 7. Aspect schématique des voies cochléaires centrales.

voir aussi =>

1. Corps genouillé interne ; 2. tubercule quadrijumeau postérieur ou colliculus inférieur ; 3. zone bulbo-protubérantielle ; 4. cochlée ; 5. projections temporales.

 

Il existerait deux entités fonctionnelles dès le noyau cochléaire : la région ventrale servirait surtout à la localisation spatiale, la région dorsale permettant plutôt de repérer des " formes acoustiques " (Buser, 1987, p. 305). On pourrait bien sûr retrouver ces deux types d'activité dans les formations supérieures et jusque dans le cortex. Cette division du travail rappelle ce qui se passe au niveau des autres sens et jusque dans l'activité complémentaire de nos deux hémisphères (cf. chap. 6).

C'est au niveau du complexe olivaire supérieur (fig. 7) que les informations en provenance de l'oreille droite et de l'oreille gauche commencent à s'échanger. Certaines cellules font la somme des influx provenant des deux oreilles. Ainsi sont perçus des sons qu'une oreille seule n'entendrait pas_ (Viaud, 1967). D'autres font la différence du son venant des deux côtés. Le côté le plus fort est déclaré vainqueur : c'est de ce côté-là que se trouve la source du bruit perçu. C'est aussi dans cette région (bras du tubercule quadrijumeau postérieur ou colliculus inférieur) que se fait l'appréciation des intensités mais surtout la discrimination tonale (la section de cette zone enlève toute possibilité de reconnaître si deux sons sont de hauteur égale ou différente et dans quel sens se marque cette différence). Au niveau du colliculus inférieur (qu'on appelle aussi tubercules quadrijumeaux postérieurs, fig. 7), on trouve des " cellules à délai " qui répondent d'autant plus fortement qu'un certain délai, bien précis, existe entre les stimulations venant de droite et celles venant de gauche. Nouvel atout pour situer la source...

Quand on bloque expérimentalement l'oreille moyenne, on observe un surprenant accroissement de l'activité métabolique des neurones impliqués dans cette voie, pourtant devenue " sourde ". On en a rapproché l'existence des " acouphènes ", sons fabriqués par un système qui ne perçoit rien !... Cette constatation insiste une fois de plus sur le caractère parfaitement subjectif de la perception qui est un acte et ne saurait se réduire à un modelage passif par les événements physiques externes (l'oreille n'est pas un simple microphone !).

Le colliculus supérieur (tubercules quadrijumeaux antérieurs), qu'on ne croyait pas impliqué dans l'audition, en gère pourtant les caractéristiques spatiales d'ensemble. Là se dessine un véritable espace sonore d'une grande finesse, parfaitement connecté à l'espace visuel (ce centre commande le mouvement des yeux). Les mêmes cellules répondent, pour une bouffée sonore ou un éclat lumineux, pourvu qu'ils proviennent de la même région de l'espace environnant ! Ce lieu est très lié à l'attention, la concentration et la mémorisation (on a récemment montré que la mise en mémoire s'accompagnait de clignements des yeux, le regard indique à quoi on s'intéresse, les aigus stimulent et appellent, etc.) (Stern, 1988). C'est là aussi que se règle la tension des petits muscles de l'oreille moyenne pour tendre plus ou moins le tympan et faire varier la pression moyenne à l'intérieur de la cochlée et de tout l'ensemble vestibulaire. Cela permet d'assurer une impédance convenable à tout le système afin de l'adapter à de très larges variations dynamiques. Cela permet aussi d'orienter la perception vers les aigus ou vers les graves.

Le thalamus met en relation les différents sens : il reçoit en effet des neurones venant de l'appareil vestibulaire, du cortex visuel, des récepteurs de la peau et des muscles de tout le corps. On y a trouvé des cellules détectrices de sons complexes (vocalisations, cris significatifs) et qui ne bronchaient pas pour des sons plus élémentaires. On peut voir ici le fondement anatomique des correspondances multiples que nombre de praticiens en musicothérapie, audio-psycho-phonologie, psycho-phonie, etc. revendiquent comme postulat de leurs constatations empiriques lorsqu'ils associent une somatotopie à la tonotopie.

Il est frappant de voir que cette tonotopie se retrouve à tous les niveaux et se " polycopie " à partir des noyaux cochléaires. Il existe plusieurs représentations de l'échelle des sons qui en soulignent l'importance et comportent une forte analogie avec les différentes somatotopies sensorielles ou motrices. Les aigus correspondant au haut du schéma corporel et les graves au bas ; cette remarque converge avec les troublantes constatations que nous avons pu faire sur le lien statistique entre symbolisme des chakras et audiogramme (Auriol, 1977, 1983, 1984, 1987).

C'est peut-être aussi à l'un - ou plusieurs - de ces niveaux intermédiaires, entre cochlée et cortex, que se fait la détection (utile à l'expression vocale) de la provenance aérienne ou osseuse d'un son ou d'un ensemble de sons : l'identité de phase et d'intensité entre les deux oreilles, la stabilité de toutes les caractéristiques malgré les mouvements de la tête, la construction résonantielle liée à la structure des cavités propres à l'individu, etc., permettent au système nerveux de repérer l'origine individuelle et osseuse d'une partie ou de la totalité de la fourniture sonore à un instant donné. Pour distinguer les sons personnels des sons externes, le système nerveux peut comparer les informations venant de droite et celles venant de gauche. Si elles sont identiques selon toutes leurs modalités, y compris malgré les petits mouvements de la tête, c'est qu'elles sont d'origine interne. C'est pour cela que le son du walkman a tendance à se faire entendre au milieu de la tête, surtout en monophonie. Peuvent alors se mettre en place les régulations destinées à atténuer l'amplitude des sensations d'origine interne au profit des informations extérieures (cf. théorie des deux voies que j'ai proposée plus haut ; on ne peut exclure cependant que ce repérage soit beaucoup plus précoce et situé déjà au niveau de la cochlée elle-même).

TONOTOPIE

Cochlée

médian

bf

hf

latéral

Noyaux cochléaires

dorsal

bf

hf

ventral

caudal

bf

hf

rostral

Olive

médian

bf

hf

latéral

 

dorsal

bf

hf

ventral

Lemniscus latéral

dorsal

bf

hf

ventral

Colliculus infér. (tub.quad.post.)

dorsal

bf

hf

ventral

Thalamus

latéral

bf

hf

médian

caudal

bf

hf

rostral

ventral

bf

hf

dorsal

Cortex temporal (chez le macaque) (Buser, 1987)

 

A1

rostrolatéral

bf

hf

caudomédial

RL

caudal

bf

hf

rostral

L

rostral

bf

hf

caudal

bf : basses fréquences hf : hautes fréquences

Le cortex auditif (fig. 8 et 9)

 

Il est situé en profondeur au niveau de la face insulaire de la première circonvolution temporale, enfouie dans la scissure de Sylvius. On trouve (Brugge, s. d.) au niveau de cette aire corticale cinq régions au moins. Trois d'entre elles sont porteuses d'une représentation de l'échelle des sons et reçoivent les informations des deux oreilles.

Chacune de ces régions reçoit aussi des messages issus des deux autres, et de l'hémisphère opposé, ceci dans le respect de la tonotopie, c'est-à-dire que les portions recevant des aigus sont reliées aux portions recevant elles-mêmes des aigus, et de même pour chaque bande fréquentielle. Notons à ce propos que, ici aussi, les aigus sont représentés sur des surfaces beaucoup plus grandes que les graves.

Chez le singe Rhésus (Biao Tian et coll.), les parties caudales du cortex auditif sont spécialisées dans la reconnaissance des formes sonores (reconnaissance des cris d'appels émis par un congénère) alors que les zones antérieures seraient plus liées à la localisation spatiale de ces cris d'appel.

 

Fig. 8. La radiation auditive et sa terminaison dans le gyrus temporal transverse, ses rapports avec la radiation optique sur une coupe frontale schématique de l'hémisphère gauche.

( Dessin extrait de Delmas et Delmas, p. 181.)

 

Fig. 9. Aires corticales auditives (Aubry et Pialoux, 1957)

( Dessin extrait de Delmas et Delmas, p. 181 ).

 

Les interactions entre ces aires " cochléotopiques " et le reste du cerveau sont très complexes et tendent à atténuer la belle simplicité dont il vient d'être question telle qu'on l'observe chez l'animal anesthésié. Lorsqu'il est conscient, les réponses sont moins bien localisées... Il est possible que d'autres données sensorielles (visuelles par exemple) et des informations non directement sensorielles (images sonores du passé évoquées par l'expérience actuelle, projet d'action dans lequel est engagé l'animal, etc.) interfèrent. Il y a même des cellules spécialisées dans ces sortes " d'interférences " : certaines, par exemple, ne s'excitent qu'à la perception d'un cri précis et la réponse est modulée par l'émotion ou l'attention. Ce mécanisme s'est développé et assoupli chez l'homme pour permettre l'intégration du langage.

 

Les mouches ont l 'oreille fine
Certaines mouches entendent probablement aussi bien que les humains.

Canada, États-Unis

05/04/2001 - On ne le devinerait pas en regardant ses « oreilles », mais la mouche Ormia ochracea localise aussi bien les sons que les humains et a probablement une aussi bonne acuité auditive qu'eux.

Les deux tympans de la mouche Ormia ochracea sont derrière sa tête.


Les humains savent habituellement d'où provient un bruit parce que leurs oreilles, éloignées l'une de l'autre, ne reçoivent pas ce bruit exactement en même temps. Mais, comme l'ont découvert Andrew Mason et ses collègues, Ormia ochracea entend aussi bien que les humains alors que les deux tympans qui lui servent d'oreilles sont séparées d'à peine... 0,5 millimètres !

Pour se reproduire, cette mouche se pose près des criquets puis leur saute sur le dos pour y pondre ses oeufs. Dans l'étude publiée dans le Science du 30 mars, la mouche a écouté les chants de cet insecte alors qu'elle était en laisse et posée sur une balle de ping-pong placée sur un jet d'air. Les mouvements de la balle ont alors montré qu'Ormia Ochracea suivait le chant du criquet à deux degrés d'angle près.

Le très performant appareil auditif de cette mouche va servir de modèle pour appareiller des malentendants. Deux « tympans de mouche » dans chaque oreille permettraient, en effet, se situer précisément les sons et donc, de distinguer la voix des bruits de fond. « Nous avons déjà fabriqué un tel appareil auditif, explique Ron Hoy, un des auteurs de l'étude. Il ne fonctionne pour l'instant que dans les ultrasons, mais il n'y a pas de doute que d'autres fréquences seront bientôt disponibles, dont celles utilisées par la parole humaine ».

Anick Perreault-Labelle

d'après Cybersciences du: 05/04/2001

La complexité, signalée pour les niveaux sous-corticaux, se retrouve bien sûr magnifiée à l'étage temporal ! On a pu repérer des zones de sensibilité à telle ou telle intensité, à tel ou tel type de modulation, à tel son complexe caractéristique, etc.

Bien des auteurs se sont émerveillés devant notre incroyable capacité à dégager l'information alors même que les instruments fabriqués reçoivent surtout du bruit dans lequel le message semble parfaitement noyé. Ceci est certainement lié à la capacité de réduire plus ou moins au silence les régions spectrales les plus riches en bruit et d'utiliser ce qui reste, grâce à la redondance quand elle existe (et c'est tout spécialement le cas du langage).

Une deuxième étape intervient ici qui est la reconstruction de la partie signifiante dans ce qui a été éliminé : un témoignage nous est connu qui se multiplie de tous les patients soumis à l'audition de musique filtrée. Ils reconnaissent parfaitement des oeuvres dont ils entendent essentiellement les harmoniques au-delà de 8 000 Hz ! L'esprit semble - et il le fait - reconstruire les fondamentaux, tellement bien que la restitution ultérieure des graves aboutit à des sons tout nouveaux pour le sujet. Il s'agit de super-graves qu'on peut comparer à l'illusion connue des super-couleurs qui sont obtenues en contemplant longuement une surface rouge par exemple puis en portant l'oeil sur du vert. On voit alors un super-vert, jamais vu ni visible naturellement ; en effet, il s'ajoute à la perception normale de la couleur présentée l'impression d'un vert de compensation qui serait là même en fermant les yeux.

Nous savons que le rôle tout à fait propre au cortex est d'attribuer aux sons reçus une signification, surtout lorsqu'il s'agit de patterns sonores compliqués (Dewson, 1970), de mémoriser, à court terme, un profil de séquence sonore, de localiser une source, de mettre en relation les perceptions auditives et les autres informations : celles des autres sens mais aussi les vagues de la mémoire, les craintes, les soucis ou les attentes. Les physiologistes ont insisté sur le rôle du cortex dans la reconnaissance de séquences sonores, même brèves.

Cette interférence est bien connue dans le cas du langage où elle produit le malaise caractéristique des films mal doublés. McGurk et McDonald ont pu montrer que le mélange des informations visuelles et auditives régnait dans la reconnaissance de ce qui est dit par l'interlocuteur présent. Si on voit les lèvres prononcer GA pendant que la bande sonore fait entendre BA, on n'entend ni l'un ni l'autre mais plutôt DA ! De même si le son est PA alors que l'image des lèvres correspond à KA, la perception sera TA. Ou encore, si l'on synchronise le son MA avec des mouvements articulant DA, GA, TA ou KA, on percevra NA dans ces diverses substitutions !

Il apparaît que toute activité cérébrale concomitante interfère avec ce qui est entendu, le modifie qualitativement ou/et quantitativement, jusqu'aux extrêmes de l'hyperacousie lors de " l'audition divine " de certaines techniques spirituelles (Milstein, 1977) ou, au contraire, de la quasi-surdité, lors de l'obtusion sensorielle due à une émotion trop forte.

On a montré qu'il existe entre deux interlocuteurs des tendances permanentes plus ou moins marquées à l'imitation réciproque, quasi synchrone ou à contretemps selon la nature de leur relation. Jeu entre eux comme une danse, efficace à tel point que le bègue nous fait bégayer et le bailleur bailler 

Ces condensations se diversifient et se multiplient lorsque, quittant les convergences purement sensorielles, on jette un regard sur le lapsus auditu dont Freud a fourni une ingénieuse explication psychologique. La signification parvenant au sujet conscient combine alors les données perceptives (auditives, visuelles, etc.), le contexte relationnel et un grand nombre de déterminants enfouis dans l'inconscient de l'auditeur pour produire chez ce dernier une erreur d'interprétation, dont la psychanalyse parvient à démasquer l'origine dans les désirs et les répressions infantiles mal intégrés.

Voies effectrices

Cortex

=> Thalamus

=> Colliculus inf.

=> Formation réticulée

=> Noyau olivaire principal (+)

=> Noyau péri-olivaire (-)

=> Noyaux cochléaires

=> Cochlée : CCI : enképhalines

 

CCE : acétylcholine (-)

acide glutamique (+)

La transmission chimique utilise de acétylcholine et de l'acide glutamique

En fait, les interactions se manifestent à tous les étages du système d'écoute. Nous avons évoqué les dialogues nécessaires qui lient dès la réception les cellules ciliées externes et internes. Nous avons également fait allusion aux évaluations spatiales liées au pavillon de l'oreille et aux mouvements du crâne. Les intensités globales sont gérées par les muscles de l'étrier et du marteau qui règlent l'impédance au niveau du tympan et de la fenêtre ovale. Plus encore : il existe une réciprocité partielle entre le cortex auditif et les formations sous-corticales. Il y a dialogue entre les centres supérieurs et les relais intermédiaires. Puis nouvel échange d'informations et de directives entre relais intermédiaires et cellule réceptrice.

Beaucoup d'études insistent sur des effets extrêmement grossiers. Nous devons attendre des recherches plus fines et plus ingénieuses qui rendront compte de la complexité du système, de sa hiérarchie, de ses relais, de la pluralité des médiateurs chimiques employés. S'il s'agissait simplement d'atténuer le son ou d'augmenter un peu la sélectivité, tout cela serait parfaitement redondant : en fait nous avons un ensemble de moyens qui autorisent les centres à piloter activement les récepteurs, de sorte que soient perçus préférentiellement tel " pattern " sonore et ses proches au détriment de bruits éventuellement plus intenses et plus complexes, mais éloignés de ce que l'individu a besoin de discerner (accroissement du rapport signal/bruit) (Buser, 1987, p. 296-297). Un pas de plus et nous aurons l'explication des liaisons curieuses observées entre certaines fréquences et certaines caractéristiques de la personnalité.

 

Une étude de 2013 montre que la différence perçue entre sons dissonants et sons consonants est liée au fonctionnement inné des structures cérébrales et ne peut se réduire à une acquisition culturelle.

Chapitre suivant : L'écoute et la voix du berceau à la tombe

Retour au Plan

Google
  Web auriol.free.fr   


Psychosonique Yogathérapie Psychanalyse & Psychothérapie Dynamique des groupes Eléments Personnels

© Copyright Bernard AURIOL (email : )

22 Aout 2014

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Nobuo Masataka & Leonid Perlovsky, Cognitive interference can be mitigated by consonant music and facilitated by dissonant music

Scientific Reports 3, Article number: 2028 ; doi:10.1038/srep02028

Received 14 March 2013 ; Accepted 03 June 2013 ; Published 19 June 2013

Article tools

Debates on the origins of consonance and dissonance in music have a long history. While some scientists argue that consonance judgments are an acquired competence based on exposure to the musical-system-specific knowledge of a particular culture, others favor a biological explanation for the observed preference for consonance. Here we provide experimental confirmation that this preference plays an adaptive role in human cognition: it reduces cognitive interference. The results of our experiment reveal that exposure to a Mozart minuet mitigates interference, whereas, conversely, when the music is modified to consist of mostly dissonant intervals the interference effect is intensified.

Experiments. Figure 1
Experiments. Figure 2
Experiments. Figure 3
Experiments. Figure 4

Contemporary cognitive and evolutionary musicology faces great controversies in attempting to identify the cognitive function of music and its evolutionary origins1, 2, 3, 4, 5, 6, 7. Arguments about the power of music over human psyche began long ago. Aristotle8 listed the power of music among the unsolved problems alongside finiteness of the world and existence of God. Kant9 was able to explain the epistemology of the beautiful by relating it to knowledge, but could not explain music: “it merely plays with senses.” Darwin10 noted that the human ability for music “must be ranked amongst the most mysterious with which (man) is endowed” because music is a human cultural universal that appears to serve no obvious adaptive purpose.

Among current evolutionary psychologists and musicologists, some consider that music plays no adaptive role in human evolution. So following Kant, Pinker11 has argued that music is an “auditory cheesecake,” a byproduct of natural selection that just happened to “tickle the sensitive spots.” While other contemporary scientists12, 13 suggested that music clearly has an evolutionary role, pointed to music's universality, and continued developing Darwin's idea on sexual selection of music, a review14 about kin selection and other biological mechanisms for music evolution concluded that “no one selective force (e.g., sexual selection) is adequate to explaining all aspects of human music.” In 2008, Nature published a series of essays on music5, the authors however could not agree on the evolutionary origin or cognitive function of music.

Meanwhile, potential cognitive benefits of music have been explored in the context of the so called “Mozart effect1”. This is a short-term improvement on “spatial-temporal reasoning.” The finding has been hyped by the media so that many scientists conducted experiments to verify its validity. A short-term effect of any improvement was illustrated though specificity to Mozart and music was questioned15, 16. Subsequently, an experimental brain activation study demonstrated that the “Mozart effect” can be accounted for by controlling for mood and arousal17.

Recently we have presented experimental evidence18, 19 supporting a hypothesis that music has a fundamental cognitive function: to help to mitigate cognitive dissonance. Cognitive dissonance is a discomfort caused by holding conflicting cognitions simultaneously20. It usually leads to devaluation and discarding of conflicting knowledge21, 22. This theory is among the most influential and extensively studied theories in psychology. It is intimately connected to the entirety of human evolution. At the dawn of human evolution, the emergence of language led to the proliferation of cognitive dissonances23, 24. If they had not been overcome, language and knowledge would have been discarded and further human evolution would have been stopped in its tracks. This is why the ability of music to mitigate cognitive dissonance could be fundamental for musical cognitive function and music evolution25. Our attempts to experimentally confirm this hypothesis were undertaken using a classical paradigm26 known to create cognitive dissonance. Exposure to Mozart's music enabled participants to overcome the cognitive dissonance. This tentatively supports the argument that music has a fundamental cognitive function, which defines its evolutionary role and leads to music's universality18, 19, 20, 21. Additional experimental evidence27 confirmed that music can help overcoming cognitive dissonance in the context of academic tests. The present study was conducted to pursue this issue further.

Here we evaluated the effects of music on cognitive interference. To create cognitive interference, we used a prototypical task known as the “Stroop interference task28”, which requires a person to respond to a specific dimension of a stimulus while suppressing a competing stimulus dimension. In the task, typically, a colour word such as GREEN appears in an ink colour such as red. If the participant's task is to read the word and ignore the colour (e.g. say “green”), there is no evidence of difficulty reading the word compared to reading it when printed in standard black ink. However, if the participant's task is to name the ink colour and ignore the word (e.g. say “red”), there is considerable difficulty relative to reading a colour patch. Reading the word interferes with naming the colour, but the colour does not interfere with reading the word. This is the phenomenon of Stroop interference.

We have conducted the present experiment on the basis of the hypothesis that the magnitude of such cognitive interference would be reduced when a person is tested with exposure to more consonant intervals than dissonant intervals. Our hypotheses have been, first, that music with more consonant intervals would reduce cognitive interference relative to that when the same person was tested without exposure to any music. Our second hypothesis has been that music with more dissonant intervals would increase cognitive interference relative to that when the same person was tested without exposure to any music.

We used a modified version of Stroop interference task known as the colour-word matching Stroop task29. Children aged 8- to 9-years-old and elderly adults aged 65 to 75 years old participated in the present experiment. They were asked to name the ink of a colour word that designated a colour incongruent with that of the ink of the word (‘Incongruent test session’). Also, the same participants were tested in a ‘Neutral testing session', in which they were asked to name the ink of a colour of a non-word string of letters, i.e., XXX. Both sessions were repeated under three conditions: (1) with exposure to music containing predominantly consonant intervals (Consonant condition), (2) with exposure to music containing predominantly dissonant intervals (Dissonant condition), and (3) without exposure to any music (Control condition). In every session and condition, the performance of the participants was measured as reaction time (RT) to response and error rate (ER) of the response.

The consonant music used was the original version of one of Mozart's minuets, most of which consisted of consonant intervals. For dissonant music we used a modified version of the minuet, most of which consisted of dissonant intervals. The same auditory stimuli were used in previous research30, 31, 32 that revealed perceptual preferences for consonance over dissonance in music in young infants and newborns.

Results

Figure 1 shows the performance results of the children assessed using RT. These results were analyzed using repeated measures of analysis of variance (ANOVA) with the following two factors: Incongruent vs. Neutral test sessions, and Consonant or Dissonant vs. Control conditions. This analysis demonstrated a significant main effect for test (Incongruent vs. Neutral test sessions, F(1,24) = 407.02, P < 0.001). The main effect of condition was also significant (Consonant or Dissonant vs. Control conditions, F(2,48) = 58.59, P < 0.001). There was a significant interaction between the two factors (F(2,48) = 3.69, P = 0.024). Post-hoc comparisons using Tukey's Honestly Significant Difference (HSD) tests revealed that under each of the three conditions, RTs were significantly longer for Incongruent session vs. Neutral session (Ps < 0.001). Moreover, the mean RTs for Incongruent sessions were significantly shorter under the Consonant condition than under the Dissonant or Control conditions (Ps < 0.001), confirming our hypothesis. Similarly, the RT under the Dissonant condition was significantly longer than that under the Control condition (P = 0.032). On the other hand, in Neutral sessions, the mean RTs did not differ among the three conditions (Ps > 0.711). All these results confirmed our expectations: the Stroop effect results in cognitive interference as expected, and our hypotheses were confirmed: consonant music helps to overcome cognitive interference, and dissonant music increases the interference.
Figure 1: Experiments.

Mean reaction time (RTs) of the participantchildren for the Stroop task (in ‘Incongruent’ sessions) with exposure to the original (consonant) version of one of Mozart's minuets (Consonant condition; Exposure to Consonance), the modified (dissonant) version of the minuet (Dissonant condition; Exposure to Dissonance); and without exposure to any music (Control), and RTs of the participants under these three conditions in ‘Neutral’ testing sessions. Error bars represent SDs.

Full size image (119 KB)

 

The results obtained using ER in the children are presented in Figure 2, and are similar to the results obtained using RT, confirming the effects seen above. There was a significant main effect for test (F(1,24) = 480.89, P < 0.001). Main effect of condition was also significant (F(2,48) = 67.46, P < 0.001). There was a significant interaction between the two factors (F(2,48) = 24.45, P < 0.001). Under each of the three conditions, ERs recorded from the participants were significantly greater during Incongruent sessions than during Neutral sessions (Ps < 0.001). The mean score for Incongruent sessions was significantly smaller under Consonant condition than under Dissonant condition or Control condition (Ps < 0.001). The score under Dissonant condition was significantly greater than that under Control condition, too (P = 0.028). For Neutral sessions, the mean ERs did not differ among the three tests (Ps > 0.752). All of these results give additional confirmation of our hypotheses.
Figure 2: Experiments.

Mean error rate (ERs) of the participant children for the Stroop task (in the ‘Incongruent’ testing session) with exposure to the original (consonant) version of a Mozart minuet (Consonance condition; Exposure to Consonance), with exposure to the modified (dissonant) version of the minuet (Dissonant condition; Exposure to Dissonance), and without exposure to any music (Control), and ERs of the participants under the three conditions in the ‘Neutral’ testing session. Error bars represent SDs.

Full size image (103 KB)

The results of the experiment with the elderly adults were strikingly similar to those with the children. Figure 3 illustrates the performance results using RT. Significant main effects were found for test (Incongruent vs. Neutral test sessions, F(1,24) = 465.93, P < 0.001) as well as for condition (Consonant or Dissonant vs. Control conditions, F(2,48) = 73.08, P < 0.001). There was also a significant interaction between the two factors (F(2,48) = 29.59, P < 0.001). Under each of the three conditions RTs were significantly greater for Incongruent session vs. Neutral session (Ps < 0.001). Moreover, the mean scores for Incongruent session were significantly smaller under Consonant condition than under Dissonant or Control conditions (Ps < 0.001). The score under Dissonant condition was significantly greater than that under Control condition (P = 0.017). In contrast, in Neutral sessions the mean RTs did not differ among the three conditions (Ps > 0.841).
Figure 3: Experiments.
.

Mean reaction time (RTs) of the participant elderly adults for the Stroop task (in ‘Incongruent’ sessions) with exposure to the original (consonant) version of a Mozart's minuet (Consonant condition; Exposure to Consonance), the modified (dissonant) version of the minuet (Dissonant condition; Exposure to Dissonance); and without exposure to any music (Control), and RTs of the participants under the three conditions in ‘Neutral’ testing session. Error bars represent SDs.

Full size image (121 KB)

The results for ER in the elderly adults are presented in Figure 4. There was a significant main effect for test (F(1,24) = 510.47, P < 0.001). The main effect of condition was also significant (F(2,48) = 82.49, P < 0.001). There was a significant interaction between the two factors (F(2,48) = 27.65, P < 0.001). Under each of the three conditions, ERs recorded for the participants were significantly greater during Incongruent sessions than during Neutral sessions (Ps < 0.001). The mean score for Incongruent sessions was significantly smaller under Consonant condition than under Dissonant condition or Control condition (Ps < 0.001). The score under Dissonant condition was significantly greater than that under Control condition, too (P = 0.022). For Neutral sessions the mean ERs did not differ among the three tests (Ps > 0.863).


Figure 4: Experiments.

Mean error rate (ERs) of the participant elderly adults for the Stroop task (in ‘Incongruent’ testing session) with exposure to the original (consonant) version of a Mozart's minuet (Consonance condition; Exposure to Consonance), with exposure to the modified (dissonant) version of the minuet (Dissonant condition; Exposure to Dissonance), and without exposure to any music (Control), and ERs of the participants under the three conditions in ‘Neutral’ testing session. Error bars represent SDs.

Full size image (101 KB)

As reported previously29, 33, 34, the colour-word matching Stroop task produced an expected interference effect in the present experiment, which remained significant during the entire test. The observed results are similar to traditionally reported Stroop effects, and the main sources of difficulty are similar: cognitive interference. The new result corresponding to our hypothesis is that the magnitude of such interference was reduced when the participants were exposed to a Mozart minuet with primarily consonant intervals, and the interference was increased when the participants were exposed to a modified minuet with primarily dissonant intervals. We conclude that consonant music may have an important cognitive function: help overcoming cognitive interference. Together with other recent experimental and theoretical publications18, 19, 23, 24, 25 this gives tentative support for our hypothesis about the fundamental cognitive function of music: it helps to resolve cognitive interference, cognitive dissonance, and facilitates human evolution.

Another issue addressed in this paper is the role of consonant vs. dissonant music and their relations to pleasure of music. It is known that infants and even newborns exhibit strong perceptual preferences for the original minuet containing mostly consonant intervals over its modified dissonant version29, 30, 31, 35. Consonant intervals are prevalent in most works of music36, 37. Our results therefore support recent findings that the effect of music on cognitive dissonance depends on the hedonicity of music: pleasant music better helps to overcome cognitive dissonance than unpleasant music38.

Drawing conclusions about the connection between musical consonance and hedonicity requires caution since dissonant and sad music could also be sources of pleasure. Now we will discuss possible cognitive functions of musical dissonance, an unresolved issue in psychology and musicology35, 36, 37. We demonstrated that the modified version of the minuet containing more musical dissonance increased the cognitive interference. This result might be related to the findings of a recent non-invasive brain activation study17 whose aim was to debunk the popular version of the ‘Mozart effect’ and to demonstrate that any improvement on cognitive tests after listening to Mozart is not specific to music. Those authors reported that whereas Mozart's music results in some improvements of cognitive test scores, Adagio by Albinoni (sad, slow music) results in lower scores on the same cognitive tests; they demonstrated that mood and arousal may account for the ‘Mozart effect,’ but did not address why the Albinoni adagio is among the most popular pieces of music.

So what could be the cognitive function of musical dissonance and of music per se and evolutionary reasons for music evolution? Our original hypothesis suggested that one cognitive function of music is to overcome a large number of cognitive dissonances between virtually any two cognitions24, 38. These include stress that arises in many complicated and difficult life conditions much more difficult and trying than those evoked by the Stroop effect.

A specific aspect of this question is why sad music is pleasurable39. One of the most popular pieces of western classical music is Adagio by Barber, which is sad, slow, and highly dissonant, like Adagio by Albinoni. According to our hypothesis19, 23, 24, 25, 38, sad music helps to overcome dissonance arising from difficult life conditions, including the ultimately death of close people (the dissonance between the feeling of the infinity of the spirit and the knowledge of death). In general, any two (or more) cognitions involve a cognitive dissonance24, 25, 38. Possibly, the cognitive dissonance between any two cognitions involves its own shade of emotion, and overcoming each cognitive dissonance requires a special musical emotion (we do not differentiate here between emotion and mood39). This hypothesis implies a potentially large number of musical emotions and also of cognitive dissonances and interferences. Music evolved for helping to overcome the predicament of stress that arises from holding contradictory cognitions, so that knowledge is not discarded, but rather can be accumulated, and human culture can evolve25. Our experimental results18, 19 emphasize a need for further research studying multiple emotions and for determining the dimensionality of these emotional spaces. This problem has not been solved, and the current paper reports a step in this direction. The consonance-dissonance dimension explored here is related to hedonicity (pleasure or displeasure) perceived in music38; however, the potential pleasure from sad dissonant music makes this connection nontrivial. Possibly music is perceived as pleasant if it resolves cognitive dissonances and interferences important for a listener. Music pleasant for many people resolves dissonances and interferences important for many of us.

While the non-invasive brain activation study mentioned above17 postulated that the “Mozart effect” is equivalent to mood and arousal, we have not explored differences between moods and emotions here mainly because we hypothesize, as discussed above, relationships between musical emotions and cognitive dissonances should be much more complicated than that17 had been assumed without addressing a fundamental question of why the Adagio by Albinoni is among most popular pieces of western music. In view of our hypothesis about relationships between musical emotions and cognitive dissonances, differences among emotions and mood are certainly worth discussing to allow an understanding the differences and similarities between (various) work in this field. Meanwhile we admit that the issue remains a part of much more complicated problem that would have to be explored in future research.

The Stroop task is well known as an effective test for examining the cognitive processes of inhibition and interference resolution40. In this test, interference occurs at the conceptual level and is separated from the response preparation. Performance in the test continues to develop up to approximately 17–19 years of age, and thereafter is likely to decline gradually as aging proceeds41, 42. This developmental pattern of changes likely reflects underlying changes in the brain, which are profoundly related to executive function and prefrontal brain activation40, 42, 43. The current study presents experimental evidence for the modulation of executive function by music. It seems that consonant music enhances the inhibition function of the executive control while dissonant music might exert a disinhibition influence “emancipating” the person from the control of the executive function. Testing this hypothesis would also require further research.


Methods

This investigation was conducted according to the principles expressed in the Declaration of Helsinki. All experimental protocols are consistent with the Guide for the Experimentation with Humans and were approved by the Institutional Ethical Committee of Primate Research Institute, Kyoto University.
Participants

As participants, we recruited 25 typically developing healthy 8- to 9-year-old boys from several elementary schools and 25 healthy 65- to 75-year-old elderly adults from temporary employment agencies in Kyoto and Aichi prefectures, Japan. All were right-handed and had been exposed to the Japanese language as their first language. They were not using any medication that would influence performance on the experimental task. Normal cognitive status was verified in the elderly adults through prescreening at the time of evaluation (Mini-Mental State Examination)44, 45. We obtained written informed consent from the parents of each of the participant children as well as from each of the participant elderly adults involved in our study. The experimental room was a sound-attenuated playroom (3.5 m × 5.5 m) familiar to all of the participants. It contained a one-way observation mirror, a chair and a table. A 22-inch monitor connected with a personal computer was placed on the table. A ceiling speaker connected with an audio player was installed in the ceiling of the room, just above the table.
Procedure

An adapted single trial version of the colour-word matching Stroop task29, 33, 34 was used in the present experiment. Participants were told by an experimenter, who had not been notified about the purpose of the present experiment, that they would see two rows of letters appear on the screen of the monitor on the table and were instructed to decide, via button-press, if the colour of the top row letters corresponded to the colour name written at the bottom row. The index (YES-response) and middle finger (NO-response) of the right hand were used to respond. During trials in “Neutral testing sessions”, the letters in the top row were “XXX” printed in red, green, blue, or yellow, and the bottom row consisted of the colour words “RED,” “GREEN,” “BLUE,” and “YELLOW” printed in the Japanese language in black. For trials in “Incongruent testing sessions”, the top row consisted of the colour words “RED,” “GREEN,” “BLUE,” and “YELLOW” printed in the Japanese language in an incongruent colour (e.g., “green” printed in red) in order to produce an interference between the colour word and colour name. In order to prevent participants from focusing on the lower word and blurring out the top word, the top word was presented 100 ms before the lower word. By this, visual attention is shifted automatically to the top word. The participants decided in all conditions if the colour name of the top row corresponded with the colour word of the bottom row. The meaning of letters or words (e.g., “XXX” or “GREEN”) was task irrelevant.

A testing session, whether a Neutral one or an Incongruent one, consisted of 40 trials in random order with an interstimulus interval of 12 s. In half of the 40 trials in an Incongruent testing session, the colour of the top row letters was congruent with the colour name written at the bottom row, and both were incongruent with one another in the other half of the trials. We excluded congruent trials from the analysis as in previous research40.

In all, each participant was subjected to a Neutral testing session and to an Incongruent testing session, respectively, three times; once with exposure to the original version of Mozart's minuet (Consonant condition), once with exposure to the modified version of the minuet (Dissonant condition), and once without exposure to any music (Control condition). The order of the total 6 sessions was randomized. Each testing session was conducted for each participant with an interval of 7 days. In each testing session, the experimenter led each participant into the experimental room, closed the door and remained together with the participant until the end of the session. When the participant was subjected to the test under Consonant condition or Dissonant condition, the experimenter switched on the audio player as she was entering the room so that the original version or the modified version of the minuet was played, respectively (the sound pressure level: 65 dB). The music continued to be played repeatedly until the experimenter switched off the player as the testing session finished.

The minuet was a simple one in C major by Mozart, K. # 1f. It was essentially the same as used previously31, 32, 33. Both the original and the modified versions were digitally generated and created by piano timbre. They were made up of 60 intervals. In the original version, only three of them were dissonant, and all three were tritons (6-semitone intervals). In the modified version, all Gs were changed to F#s and all Ds to C#s. This had the effect of creating 21 additional dissonant intervals, including a total of 12 of the two most-dissonant intervals, i.e. seven tritons and five minor ninths (13 semitones). In the present stimuli, the upper voice and the lower voice were separated by more than an octave in each interval. The tempo was identical across the two versions (120 quarter per min).


References

Rauscher, F. H., Shaw, G. L. & Ky, K. N. Music and spatial task performance. Nature 365, 611 (1993).

Cooper, J. S. The Mozart effect. J Royal Soc Med 94, 170–172 (2001).

Cross, I. Music and cognitive evolution. In: Dunbar Barrett R. L. (Eds.) Oxford handbook of evolutionary psychology, pp.649–667, (Oxford University Press, 2007).

Ball, P. Facing the music. Nature 453, 160–162 (2008).

Editorial. Bountiful noise. Nature 453, 134 (2008).

Masataka, N. The origins of language (Springer, 2008).

Masataka, N. The origins of language and the evolution of music: a comparative study. Phys Life Rev 6, 11–22 (2009).

Aristotle. The complete works: the revised Oxford translation (Princeton University Press, 1995).

Kant, I. Kritik der Urteilskraft (Leipzig F Meiner, 1790).

Darwin, C. R. The descent of man, and selection in relation to sex (John Murray, 1871).

Pinker, S. How the mind works (Norton; 1997).

Masataka, N. The onset of language (Cambridge University Press, 2003).

Miller, G. F. How did language evolve. In: Swain H. (Ed.) Big questions in science, pp. 79–90, (Jonathan Cape, 2003).

Fitch, W. T. The biology and evolution of music: a comparative perspective. Cognition 100, 173–215 (2006).

Steele, K. M. et al. Prelude or requiem for the ‘Mozart effect’? Nature 400, 827 (1999).

Schellenberg, E. G. Exposure to music: the truth about the consequences. In: McPherson G. E. (Eds.) The child as musician: a handbook of musical development, pp. 111–134, (Oxford University Press, 2006).

Thompson, W. F., Schellenberg, E. G. & Husain, G. Arousal mood and the Mozart effect. Psych Sci 12, 248–51 (2001).

Masataka, N. & Perlovsky, L. I. Music can reduce cognitive dissonance. Nature Prec hdl:10101/npre.2012.7080.1 (2012).

Masataka, N. & Perlovsky, L. I. The efficacy of musical emotions provoked by Mozart's music for the reconciliation of cognitive dissonance. Sci Rep 2, 307 (2012b).

Wikipedia. Cognitive dissonance. http://en.wikipedia.org/wiki/Cognitive_dissonance (February 26th, 2013).

Cooper, J. Cognitive dissonance: 50 years of a classic theory (Sage, 2007).

Festinger, L. A theory of cognitive dissonance (Stanford University Press, 1957).

Perlovsky, L. I. Musical emotions: functions, origin, evolution. Phys Life Rev 7, 2–27 (2010).

Perlovsky, L. I. Cognitive function of music, part I. Interdisc Sci Rev 37, 129–42 (2012).

Perlovsky, L. I. A challenge to human evolution – cognitive dissonance. Front Psychol 4,179 (2013).

Aronson, E. & Carlsmith, J. M. Effect of the severity of threat on the devaluation of forbidden behavior. J Abnor Soc Psych 66, 584–588 (1963).

Perlovsky, L. I., Cabanac, A., Bonniot-Cabanac, M-C. & Cabanac, M. Mozart effects, cognitive dissonance, and the pleasure of music. Behav Brain Res 244, 9–14 (2013).

Stroop, J. R. Studies of interference in serial verbal reactions. J Exp Psych 18, 643–682 (1935).

Schroeter, M. L., Zysset, S., Wahl, M. M. & von Cramon, D. Y. Prefrontal activation due to Stroop interference increase during development. NeuroImage 23, 1317–1325 (2004).


Trainor, L. & Heinmiller, B. M. The development of evaluative responses to music: infants prefer to listen to consonance over dissonance. Infant Behav Dev 21, 77–88 (1998).

Trainor, L., Tsung, C. D. & Cheung, V. H. W. Preference for sensonry consonance in 2- to 4-month-old infants. Music Percep, 20, 187–194 (2002).

Masataka, N. Preference for consonance over dissonance by hearing newborns of their deaf parents and of hearing parents. Dev Sci 9, 46–50 (2006).

Zysset, S., Muller, K., Lohmann, G. & von Cramon, D. Y. Color-word matching Stroop task: separating interference and response conflict. NeuroImage 13, 29–36 (2001).

Moser, S. J., Cutini, S., Weber, P. & Schoreter, M. L. Right prefrontal brain activation due to Stroop interference is altered in attention-deficit hyperactivity disorder - a functional near-infrared spectroscopy study. Psychiat. Res :Neuroim 173, 190–195 (2009).

Zentner, M. & Kagan, J. Infants' perception of consonance and dissonance in music. Infant Behav Dev 21, 483–492 (1998).

Lundin, R. W. An objective psychology of music, 3rd edition (Krieger, 1985).

Frances, R. The perception of music (Erlbaum, 1988).

Perlovsky, L. I. Cognitive function, origin, and evolution of musical emotions. Music Sci 16, 185–199 (2012).

Huron, D. Why is sad music pleasurable?: a possible role for prolactin. Music Sci 15, 146–158 (2011).

Monsell, S., Taylor, T. J. & Murphy, K. Naming the color of a word: is it responses or task sets that compete? Memory Cog 29, 137–151 (2001).

Adelman, N. E. et al. A developmental fMRI study of the Stroop color-word task. NeuroImage 16, 61–75 (2002).

Spieler, D. H., Balota, D. A. & Faust, M. E. Stroop performance in healthy younger and older adults and in individuals with dementia of the Alzheimer's type. J Exp Psychol Hum Percept Perform 22, 461–479 (1996).

Derfuss, J., Brass, M., Neumann, I. & von Cramon, D. Y. Involvement of the inferior frontal junction on cognitive control: meta-analysis of switching and Stroop studies. Hum Brain Mapp 25, 22–34 (2005).

Jennings, J. M., Dagenbach, D., Engle, C. M. & Funke, L. J. Age-related changes and the attention network task: an examination of alerting, orienting, and executive function. Neuropsychol Dev Cogn B Aging Neuropsychol Cogn 14, 353–369 (2007).

Madden, D. J. & Gottlob, L. R. Adult age differences in strategic and dynamic components of focusing visual attention. Aging Neuropsychol Cogn 4, 185–210 (1997).

This research was supported by a grant (#25285201) as well as by the Grants for Excellent Graduate Schools, from the Ministry of Education, Science, Sports and Culture, Japanese Government (A06 to Kyoto University). We are grateful to Naoko Watanabe for assistance when conducting experimentation and Masahiro Shibasaki and Elizabeth Nakajima for making comments on an earlier version of this manuscript. We are also thankful to reviewers for suggestions.

 

Affiliations

Primate Research Institute, Kyoto University, Kanrin, Inuyama, Aichi, Japan
Nobuo Masataka
Athinoula A. Martinos Center for Biomedical Imaging, Harvard University, Charlestown, MA, USA and Air Force Research Laboratory, Dayton, OH, USA
Leonid Perlovsky

Contributions

N.M. and L.P. conceived the study, and participated in its design and coordination and drafted the manuscript. N.M. conducted the experiments and participated in the data analysis and interpretation. Both authors read and approved the final manuscript.
Competing financial interests

The authors declare no competing financial interests.
Corresponding author

Correspondence to: Nobuo Masataka

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 3.0 Unported License. To view a copy of this license, visit http://creativecommons.org/licenses/by-nc-nd/3.0/

Program Director
University of California Los Angeles (UCLA)
Postdoctoral Research Associate - Spinal Cord Injury
Valeria Cavalli, Washington University in St Louis
Blog Manager (BMC / BM)
BioMed Central Limited

 

Engineering of ultra-small diagnostic nanoprobes through oriented conjugation of single-domain antibodies and quantum dots

Protocol Exchange 22 Aug 2012
The efficacy of musical emotions provoked by Mozart's music for the reconciliation of cognitive dissonance

Scientific Reports 25 Sep 2012
Neural activity predicts attitude change in cognitive dissonance

Nature Neuroscience 16 Sep 2009

Most read

Scientific Reports
ISSN (online): 2045-2322

 

© 2013 Nature Publishing Group, a division of Macmillan Publishers Limited. All Rights Reserved. partner of AGORA, HINARI, OARE, INASP, ORCID.

 



[1] S. Deligeorges, Lilliput chez les chiroptères, La Recherche 343, juin 2001, 343-344