Rappels sur les mécanismes de l’audition et de la phonation

{Chapitre 1: L’apport du découpage IDS dans la compréhension des aspects qualitatifs de la perception auditive et du contrôle de la boucle audio-phonatoire, Mémoire de fin d'Etudes soutenu par Charlie Sénécaut à l'École Nationale Supérieure Louis-Lumière, Section Son, rédigé sous la direction de Bernard AURIOL et Laurent MILLOT}

Nous nous contentons, ici, de rappeler les informations nécessaires à la bonne compréhension des chapitres qui suivent.

Aussi, dans un premier temps, nous rappelons ce que nous savons des processus mis en jeu dans l’analyse du signal sonore par le système auditif.

Dans un deuxième temps, nous proposons quelques repères concernant les commandes de motricité phonatoire.

1. LE SYSTÈME AUDITIF

La partie visible de l’oreille, que représente le pavillon de l’oreille externe, ne constitue qu’une infime partie de notre système auditif. Celui-ci se décompose en deux sous-ensembles :

-                                               le système auditif périphérique, qui part du pavillon pour s’arrêter aux premiers neurones du nerf auditif, responsable du codage de l’information sonore en potentiels électriques ;

-                                               le système auditif central, qui va des premiers neurones pour aller jusqu’au cerveau, responsable de l’interprétation de l’information sonore.


 

1.1. Le système auditif périphérique

Le système auditif périphérique est composé de trois parties qui sont l’oreille externe, l’oreille moyenne et l’oreille interne comme le montre le schéma de la Figure 1. Chacun de ces trois sous-systèmes assure une étape dans la transmission du signal :

-                                               l’oreille externe est responsable de la transmission aérienne au travers du conduit auditif externe ;

-                                               l’oreille moyenne assure, au moyen des trois osselets (marteau, enclume, étrier), la transmission mécanique du tympan jusqu’à la fenêtre ovale ;

-                                               l’oreille interne, quant à elle, permet la transmission hydromécanique au niveau de la membrane basilaire ainsi que la transmission électro-chimique au niveau des cellules ciliées de l’organe de Corti.

 

Figure 1 : Schéma des oreilles externe, moyenne et interne [1] .

Le système auditif périphérique communique avec le système auditif central à l’aide d’un système nerveux bilatéral composé de fibres afférentes, allant de l’organe de Corti vers le cortex auditif, et de fibres efférentes, qui font le chemin inverse.

Cet aller-retour de l’information entre la périphérie et le centre, joue un rôle important dans les mécanismes de l’audition et illustre particulièrement bien la complexité de l’appareil auditif. Expliquons-le brièvement.

Les cellules ciliées de l’organe de Corti se divisent en deux parties. On distingue les cellules ciliées internes et les cellules ciliées externes, appelées ainsi en raison de leurs positions respectives au sein de l’organe de Corti comme le montre le schéma ci-dessous.

C’est presque exclusivement depuis les cellules ciliées internes, excitées par les mouvements de la membrane basilaire, que part l’information afférente.

L’information efférente envoyée en retour depuis le tronc cérébral est réceptionnée par les cellules ciliées externes qui jouent majoritairement un rôle d’amplification.

Les travaux de ces dernières décennies ont en effet montré que la cochlée pouvait produire plus d’énergie qu’elle n’en reçoit de l’étrier.

Il apparaît aujourd’hui de plus en plus probable que ce sont les cellules ciliées externes qui assurent ce rôle d’amplificateurs de la membrane basilaire.

Figure 2 : Le système sensible de la cochlée [2] .

Ce fonctionnement est caractéristique de la base de la cochlée et concerne les hautes fréquences.

Les potentiels d’actions de ces dernières sont envoyés vers le centre selon un codage spatial de la fréquence basé sur la sélectivité fréquentielle et la tonotopie [3] . À l’apex (sommet de la cochlée), les cellules ciliées externes auraient davantage un rôle récepteur pour les sons de basses fréquences.[Les cellules ciliées externes se raréfient quand on passe de la base à l’apex. Elles n’existent plus, à ma connaissance, pour les très basses fréquences, lesquelles sont donc perçues u,iquement par les cellules ciliées internes ; dans le cas des sons très graves il n’est pas besoin d’une pré-amplification ni d’une sériation fréquentielle spéciale]

Ainsi, en-dessous de 2000 Hz, la fréquence des potentiels d’action correspond à la fréquence du son capté faisant l’objet d’un codage temporel [4] .

Nous voyons que, dès le début du traitement de l’information sonore, les sons de basse fréquence et ceux de haute fréquence ne semblent pas être traités selon le même principe.

Si leur codage est commun le long de la membrane basilaire, seuls les sons de haute fréquence (sons aigus) conservent ce codage de type spatial le long du nerf auditif.

Nous reviendrons sur cette différence de traitement tout au long de ce mémoire.

Le schéma que nous retrouvons à la page suivante récapitule ces deux systèmes afférents et efférents allant du système auditif périphérique, seul détaillé dans ce diagramme, au système auditif central dont nous dirons quelques mots plus loin.

 

Figure 3 : Diagramme de l’écoute (périphérie) [5] .


1.2. Système auditif central

Les 4 000 cellules ciliées sensorielles internes contenues dans la cochlée sont reliées à 45 000 fibres nerveuses. Les 30 000 cellules ciliées externes sont, elles, reliées à seulement 5 000 fibres nerveuses. Cet ensemble se regroupe pour former les deux nerfs auditifs (correspondant à la VIIIe paire de nerfs crâniens) qui envoie l’information au cerveau, notamment dans le cortex auditif du lobe temporal. La figure 4 ci-dessous nous montre les différentes voies nerveuses allant de la cochlée  à l’aire auditive temporale.

Figure 4 : Schéma des voies nerveuses (source de ce schéma ?)


a) Le nerf auditif

Les fibres du nerf auditif répondent sélectivement aux sons dont la fréquence est proche de ce qu’on appelle leur fréquence caractéristique. En cela elles se comportent comme des filtres passe-bande :  leurs courbes de réponse sont proches des courbes d’effet de masque psychoacoustique et correspondent également à ce qu’on appelle les bandes critiques du système auditif, indiquées en Table 1.

Table 1 : Les bandes critiques ou filtres du système auditif [6] . D’après Scharf (1970)


La sélectivité des fibres du nerf auditif dépend de leur fréquence caractéristique qui, elle, est directement liée aux points d’innervation des fibres le long de la membrane basilaire.

C’est donc, à nouveau, un codage de type spatial ou « tonotopique » qui opère ici.

b) Le tronc cérébral

Le tronc cérébral est composé de différents centres relais qui opèrent des sous-traitements en parallèle des stimuli auditifs.

L’une des caractéristiques principales de ces centres, ou noyaux, est l’apparition d’un nouveau type de réponses différentes de celles décrites pour le nerf auditif.

Un traitement additionnel du message auditif est donc réalisé à ce niveau. Ainsi, certaines caractéristiques nécessaires au traitement de la parole peuvent être extraites au niveau des noyaux cochléaires.

Le tronc cérébral est également impliqué dans le traitement binaural de l’information auditive puisqu’il existe, en effet, de nombreuses connexions entre les côtés droit et gauche.

c) Les aires auditives

Le cortex auditif primaire, tout comme la cochlée et le nerf auditif, est organisé de façon tonotopique. Superposées à cela, les caractéristiques neuropsychologiques, contribuant à la l’analyse des sons complexes, sont également distribuées spatialement.

De nombreuses aires auditives secondaires, tonotopiques ou non, ont été décrites. Toutes ces régions présentent des connexions complexes, réciproques ou non, avec d’autres aires corticales auditives mais aussi avec le tronc cérébral et le cortex visuel.

Ces connexions suggèrent que les aires auditives associatives ne sont pas uniquement impliqués dans un simple traitement parallèle de l’information auditive mais pourraient jouer des rôles différents en fonction de différents contextes comportementaux (incluant notamment la vision).

Maintenant que nous avons décrit la façon dont les sons, et notamment les sons de la parole, sont perçus, nous allons tenter de comprendre la manière dont ils sont produits en décrivant brièvement les mécanismes de la phonation.

 

 

 

2. LE SYSTÈME PHONATOIRE

2.1. Les principaux acteurs de la phonation

Le son de la voix humaine résulte de l’action combinée de plusieurs acteurs : les poumons, le pharynx, le larynx, les cordes vocales, le voile du palais, la langue, les dents et  les lévres. Nous ne parlerons que des organes qui nous permettront de comprendre les liens qui unissent l’acte phonatoire et l’écoute, et qui feront l’objet du chapitre suivant.

Le larynx est situé  dans la région moyenne du cou, juste sous la racine de la langue, en dessous de l’os hyoïde, au-devant de la colonne vertébrale. Sa position varie avec le sexe et l’âge du locuteur : il s’abaisse progressivement jusqu’à la puberté.

Chez la femme, il est plus élevé, ce qui entraîne une diminution de la longueur du pharynx. Cette différence homme/femme aura des conséquences lors de la production vocalique et entraînera un décalage des formants que nous introduirons plus loin.

Les cordes vocales sont en fait deux lèvres symétriques placées en travers du larynx (cf. Figure 4). Ces lèvres peuvent fermer complètement le larynx et, en s’écartant progressivement, déterminer une ouverture triangulaire appelée “glotte“.

Au cours de la phonation, des mécanismes du larynx mettent en jeu des articulations (cricothyroïdienne et cricoarythénoïdienne) intervenant sur la position et la fixation de la tension des cordes vocales.

La théorie du mécanisme des cordes vocales a pu être établie à partir de multiples observations faites sur le larynx de locuteurs, sur des larynx de cadavres ou d’animaux.

Les résultats ont pu être vérifiés et étendus grâce à la modélisation.

Les bases de la théorie myo-élastiques remontent au XVIIIe siècle, à partir d’excision du larynx. À la suite de violentes controverses occasionnées par la thèse neuro-chronaxique de Husson (1960) les résultats se sont accumulés.

La fonction phonatoire du larynx est basée sur une étroite imbrication de trois séries de facteurs :

-        les propriétés aérodynamiques de l’air qui excite le larynx ;

-        l’ajustement des cordes vocales déterminé par l’activité nerveuse de ses différents muscles et par leurs propriétés myoélastiques ;

-        l’interaction mécanique entre les cordes vocales ;

-        le couplage aérodynamique entre le larynx et les cavités sub- et supraglottiques.

Figure 5 : Section du larynx vu de haut [7] .

Au cours de la phonation, et sous l’effet des muscles du larynx, les cordes vocales évoluent en longueur ; ces modifications s’accompagnent aussi de variations de tension et d’épaisseur.


2.2. La phonétique articulatoire

a) Les sons élémentaires du français

Il est possible de regrouper les sons de parole en classes phonétiques, en fonction de leur mode articulatoire.

On distingue généralement deux classes principales : les voyelles et les consonnes.

Les voyelles sont des sons voisés, ou sonores, mettant en jeu la vibration des cordes vocales et correspondant à une configuration assez stable du conduit auditif vocal, propre à chaque voyelle, et à un passage libre de l’air dans le conduit vocal.

La structure acoustique des voyelles se caractérise principalement par la présence de maxima spectraux, c’est-à-dire des zones de fréquences appelées « formants » où les harmoniques sont particulièrement intenses.

Les consonnes se prononcent avec un rétrécissement local ou avec une fermeture du conduit vocal.

Il existe des consonnes sourdes, ou non voisées, ainsi que des consonnes sonores, ou voisées, selon que l’air provenant des poumons est ou non modulé par les cordes vocales.

  La Table 2, bien connue des phoniatres français, récapitule les voyelles et les consonnes utilisées dans notre langue en leur associant les symboles phonétiques de l’API (l’alphabet phonétique international ).

Table 2 : Les symboles de l’alphabet phonétique international utilisés en français [8] .

Les traits acoustiques du signal de la parole sont liés à sa production.

Sa fréquence est en fait celle du cycle d’ouverture/fermeture des cordes vocales.

Sa composition spectrale est déterminée par la succession des cavités acoustiques du conduit vocal (cavités nasales, volume entre la langue et le voile du palais) que rencontre le signal glottique.

En fait, seuls les deux premiers formants (F1 et F2) suffisent à les distinguer comme le montre le schéma de la Figure 5.

Figure 6 : Représentation des voyelles dans le plan F1-F2 [9] .

On remarque, sur la figure 5, que les premiers formants vont de 200 Hz (pour {u}, {y} et {i} par exemple) à 750 Hz (pour {a}) et les seconds formants vont de 800 Hz à 2500 Hz. Ces valeurs sont à comparer à la fréquence du fondamental de la voix qui évolue approximativement entre 100 et 150 Hz chez l’homme, et de 140 à 250 chez la femme et l’enfant.

b) La segmentation de la chaîne de la parole

Dans ses travaux sur l’écoute de la parole, Émile Leipp observe déjà dans les années 1970 que si le phonème constitue la plus petite entité linguistique, il n’est pas un élément pertinent dans l’acoustique de la parole, et, il lui préfère plutôt le « diphonème » ou les « phonatomes » [10] (cf. Figure 6).

Ces néologismes, utilisés par Leipp alors qu’il concevait un synthétiseur de la parole, l’ « Icophone », correspondent à la syllabe en tant qu’association consonne-voyelle.

Par exemple, pour dire le mot « toilette », Leipp utilise les syllabes suivantes : “tou“, “oua“, “al“, “lè“, “ett“ [11] .

Figure 7 : Synthèse de la parole par phonatomes

« Le phonatome, atome acoustique insécable de la parole, fournit une image sonagraphique originale, un « signe élémentaire de sténographie acoustique » (a). Avec un dictionnaire de tels signes élémentaires, on peut réaliser des superformes (le mot « toilette » : b), qui, relues avec un appareil adéquat (l’icophone), donnent une parole synthétique intelligible. La figure (b) est quantifiée pour l’ordinateur. [12]  »

D’autres études plus récentes [13] corroborent le fait qu’une même voyelle peut avoir des propriétés acoustiques différentes en fonction non seulement de la consonne qui la précède mais également de la consonne qui la suit.

Ainsi, on peut donc noter qu’une voyelle ne peut être étudiée séparément des phonèmes qui l’entourent.


3. Conclusion

Dans ce premier chapitre, nous avons vu les principaux mécanismes qui régissent l’audition et la phonation.

L’information sonore est véhiculée par le nerf auditif, constituant du VIIIe nerf crânien, tandis que les acteurs de la phonation sont innervés par le nerf vagal, ou Xe paire crânienne.

Ainsi armés, nous pouvons aborder la conception d’Alfred Tomatis sur les relations étroites qu’entretiennent ces deux mécanismes, faisant apparaître la boucle audio-phonatoire chère à notre étude.

page précédente                                            suite              
Google
  Web auriol.free.fr   
Psychosonique Yogathérapie Psychanalyse & Psychothérapie Dynamique des groupes Eléments Personnels

© Copyright Bernard AURIOL (email : )

6 Septembre 2008

 

 

 

 

 

 

 

 

 

 



[1] Extrait de L’oreille musicienne, ABITBOL, Jean. Gallimard, 2001, planche n°III.7.

[2] Extrait de La machine à écouter – Essai de psychoacoustique. LEIPP, Émile. Paris : Masson, 1977, p. 82.

[3] La tonotopie un principe de codage de l’information fréquentielle d’un son, que l’on retrouve à divers endroits du système auditif à commencer par la cochlée, et que l’on peut définir comme suit : chaque composante fréquentielle d’un son est codée par le système auditif en entrant en vibration avec un cil ou une surface localisé(e) à un endroit précis de l’organe qui n’est sensible qu’à cette composante fréquentielle. Ainsi dans l’oreille interne, les hautes fréquences sont codées à la base de la cochlée tandis que les basses fréquences sont codées à son apex (sommet). [Comme on le verra plus loin, la tonotopie consiste surtout en ce que cette distribution fréquentielle conserve sa distribution topographique tout au long du cheminement nerveux allant de la cochlée aux structures encéphaliques ; cette topographie reste entièrement lisible au niveau des noyaux gris et des diverses structures corticales qui ont à traiter l’information sonore]

[4] BOTTE, Marie-Claire in Traité de psychologie cognitive – Perception, action, langage. Paris : Dunod, 2003 (2e édition), p. 97.

[5] Extrait de La clef des sons. AURIOL, Bernard. Toulouse : Eres, 1991, p. 28.

[6] Extrait de Traité de psychologie cognitive – Perception, action, langage. Paris : Dunod, 2003 (2e édition), p.~105. Ce tableau nous présente les bandes critiques du système auditif en fonction de leur fréquence centrale. Sont représentées également les largeurs ainsi que les bornes (inférieures et supérieures) de ces fréquences centrales. « Ces données présentent un aspect “figé“ du système de filtrage auditif ; en réalité, une bande critique peut avoir n’importe quelle fréquence centrale et sa largeur, qui dépend de cette fréquence centrale, peut être trouvée, approximativement, d’après ce tableau. »

[7] Extrait de Traitement de la parole. BOITE et al.. Lausanne : Presses polytechniques et universitaires romandes, 2000, p. 14.

[8] Extrait de Traitement de la parole. BOITE et al., p. 15

[9] Ibid p. 16.

[10] Émile LEIPP. La machine à écouter. Paris : éditions Masson, 1977, p. 212.

[11] Ibid p. 212.

[12] Ibid p. 213.

[13] Juan SEGUI. Chapitre 4 : La perception du langage parlé in Traité de psychologie cognitive. Sous la direction de BONNET, GHIGLIONE, RICHARD. Paris : édition Dunod, 2003, p.217.

Mais aussi CELSIS, DOYON, BOULANOUAR, NESPOULOUS s’appuyant sur les travaux de MANN et LIBERMAN (1983) in Perception auditive et compréhension du langage parlé. Sous la direction de LAMBERT et NESPOULOUS. Marseille : éditions SOLAL.