Accéder au contenu principal

Home

« L'oreille est-elle un microphone naturel ? » (SON Magazine nº72, juin 1976)

Treizième entretien de la série Alain Gerber × Alfred Tomatis dans SON Magazine. Au n° 72, juin 1976, Tomatis démantèle la conception mécaniste de l'audition née dans les années 1930 — lorsqu'on plaçait des collecteurs sur le nerf auditif d'animaux morts et observait des réactions « microphoniques ». Il défend que l'oreille n'est pas un capteur passif mais un organe d'écoute intentionnelle doté d'un état « prévisionnel » : pour parler, il faut auto-écouter ce qui n'a pas encore été dit (le bègue est sourd à lui-même parce qu'il n'arrive pas à prévisionner). L'oreille gauche écoute « en dilettante » l'orchestre global, l'oreille droite « vise » comme un tireur d'élite. Tomatis identifie deux points de bascule universels (~800 Hz et ~3 000 Hz) et lance le défi aux fabricants de microphones : « il vaut mieux posséder une mauvaise oreille désireuse d'écouter, qu'une très bonne qui ne veut rien entendre ».

Magazine « SON » — n° 72 — Juin 1976
L'oreille est-elle un microphone naturel ?
Alfred A. TOMATIS
Entretien recueilli par Alain Gerber


Présentation

Dans le précédent numéro de SON Magazine, le Professeur Tomatis nous parlait de la voix humaine qui est, pour lui, le plus bel instrument du monde. Ce mois-ci, il s'interroge pour nous sur la ressemblance entre l'oreille humaine et le microphone et il nous livre le fruit de ses recherches.

Une analogie séduisante mais simpliste

Alain Gerber : Professeur Tomatis, l'industrie humaine a mis au point un instrument d'écoute qui est le microphone. Existe-t-il une relation entre la structure de cet appareil et celle de l'oreille ? En d'autres termes, peut-on dire, en renversant le problème, que l'oreille est une sorte de microphone naturel ?

Alfred Tomatis : C'est une question assez complexe que vous posez là, parce qu'on ne peut y répondre qu'après avoir examiné un certain nombre de théories proposées par les chercheurs depuis plus d'un demi-siècle. La première tendance a été, précisément, de se représenter l'oreille comme un microphone qui intégrerait tout le message qu'on lui destine. C'est très tentant de voir les choses de cette manière. L'ennui, c'est que c'est aussi très simpliste ! Si de nombreux scientifiques ont cédé à la tentation, cela est dû au fait que l'oreille, dans notre civilisation du moins, n'a été que tardivement élevée à la dignité d'un objet d'études.

Songez qu'il y a seulement 400 ans, on ignorait même qu'il y eût des osselets dans l'oreille ! La découverte de ces éléments essentiels n'a été, qui plus est, que le fruit du hasard… Bref, en ce domaine, on s'est longtemps contenté d'approximations. Il a suffi que l'on observe une vague ressemblance entre, d'une part, l'organe muni de son pavillon et d'autre part un collecteur, pour qu'on établisse une analogie oreille-microphone.

L'expérience des années 1930 sur l'animal mort

Ajoutez à cela que vers 1930, des recherches plus approfondies ont permis d'établir que l'oreille répondait réellement aux stimulations comme un micro. En plaçant des collecteurs sur le nerf auditif, après le labyrinthe, on a été à même de constater que l'oreille réagissait à la parole, par exemple, exactement de la même manière qu'un microphone. Le plus curieux, c'est que cette réaction se produisait même chez un animal déjà mort. Bien sûr, le microphone naturel s'éteignait à mesure que la cellule périssait, mais on n'en était pas moins fondé à penser qu'il existait une analogie de structure avec la machine, et que, chez l'être vivant, le fonctionnement de cette structure microphonique était relativement indépendant des processus supérieurs. Autrement dit, l'oreille était une sorte de machine, comme le microphone lui-même.

L'oubli majeur : le cortex et le corps

A. G. : Et l'on se trompait ?

A. T. : Là encore, il n'est pas si simple de vous répondre. D'un côté, il est exact que l'oreille agit selon ce schéma. Mais d'un autre côté, c'est faux ! Disons, pour être plus précis, que cette façon de concevoir les choses, acceptable en elle-même, suppose et suggère d'autres implications théoriques qui, elles, sont erronées. Que va-t-il se passer, en effet, si l'on applique trop étroitement cette conception mécaniste ?

Envoyant une impulsion sonique dans une oreille, on pensera trouver de l'autre côté une réponse identique à celle qu'on pourrait mesurer sur un microphone dans un laboratoire d'acoustique. Eh bien, on risque fort d'être déçu ! Car on oublie une chose dans toute cette affaire, c'est que l'oreille, ce n'est pas seulement un pavillon et un système interne (dont la plupart des chercheurs, il faut bien le dire, n'ont jamais trop bien su comment il fonctionne !).

Il faut étendre la notion d'oreille au cortex si l'on veut y comprendre quelque chose. L'appareil auditif comporte une dimension cérébrale, qu'il n'est pas possible d'ignorer. Pour ma part, je vais même plus loin. Plus j'avance dans mes travaux, plus j'incline à penser que ce n'est pas seulement le cerveau, mais le corps tout entier qui entre en jeu dans le processus de l'écoute.

Un microphone à réponses psychologiques

A. G. : L'oreille humaine serait donc un microphone susceptible d'avoir des réponses… psychologiques ?

A. T. : Exactement ! C'est un microphone qui ne répond pas seulement d'après sa sensibilité physique à des stimulations soniques quantitatives, mais aussi et surtout d'après sa sensibilité affective à un aspect qualitatif de ces stimulations.

A. G. : La formule est un peu abstraite…

A. T. : En clair, cela signifie que notre oreille ne se contente pas d'enregistrer les stimulations du monde sonore environnant. Elle est aussi douée du pouvoir de les accepter ou de les refuser. Et si vous trouvez encore cela trop abstrait, je vous dirai qu'elle leur attribue une valeur et que les sons, selon cette valeur, sont plus ou moins bien reçus, intégrés, par le psychisme et la personnalité tout entière.

Lorsque ces sons se trouvent être les mots prononcés par les parents au moment de l'acquisition du langage, le refus ou l'acceptation détermine dans une très large mesure le degré et la rapidité d'intégration de ce langage par le sujet. Vous voyez qu'il n'y a rien de plus concret et qu'il s'agit d'un problème grave. Notre « oreille », ainsi comprise, peut nous rendre dyslexique, bègue, muet, elle peut prendre en charge une névrose et contribuer à sa fixation, etc. — toutes choses qui sont sans commune mesure avec les possibilités d'un microphone.

Le micro et le refoulement

A. G. : Le micro, lui, n'est pas capable d'être sourd parce qu'il ne veut pas entendre ?

A. T. : C'est cela. Il peut enregistrer ou bien il ne peut pas. L'oreille, elle, peut fort bien ne pas entendre des messages qui sont pourtant à la portée de l'appareil auditif. En fait, elle les perçoit, mais elle les rejette avant que la conscience vigile puisse s'en emparer. Il s'agit bien d'un mécanisme de refoulement psychologique.

Ceci posé, il ne faudrait pas croire que le microphone n'a pas, lui aussi, des problèmes à régler. Sans doute, il ne souffre pas de troubles d'ordre psychanalytique ! Mais tout de même. Tout n'est pas aussi clair dans son fonctionnement que ce qui est inscrit sur la notice qui l'accompagne. Sur le papier, un bon microphone est toujours linéaire et possède toutes les caractéristiques nécessaires pour satisfaire l'utilisateur. Mais lorsqu'on le met en marche et qu'on regarde d'un peu près ce qui se passe, on se rend compte que la réponse n'est pas aussi uniforme qu'on pouvait l'espérer. Il semble bien qu'il y ait des bandes passantes électives. Ainsi, un micro, prétendument linéaire de 0 à 10 000 hertz, présente à certains niveaux des phénomènes qu'on pourrait presque dire de résonance.

À ces niveaux-là, les réponses sont donc les meilleures possibles, alors qu'à d'autres, cela marche beaucoup moins bien. En résumé, la réponse d'un microphone est plus ou moins bonne en fonction de phénomènes physiques plus ou moins connus, plus ou moins complexes, et aussi en fonction des montages qu'on peut faire et des contre-réactions qui peuvent se produire.

Bandes passantes électives de l'oreille

A. G. : Et là, on retrouve l'analogie avec l'oreille humaine ?

A. T. : Eh oui ! L'oreille humaine devrait être linéaire, ou à peu près, de 16 à 16 000 ou 20 000 périodes, pour une stimulation située entre 40 et 60 décibels. Il n'empêche qu'en fonction des aptitudes individuelles, des apprentissages, de l'impédance du lieu et de mille autres paramètres, il y a des bandes passantes qui vont être immédiatement maximales, quant à la réponse, tandis que d'autres seront médiocres.

A. G. : Faut-il alors en revenir à la théorie « microphonique » de l'oreille ?

A. T. : En fait, non. Il y a même un certain temps que cette théorie a dû être abandonnée, parce qu'elle n'expliquait pas la répartition des fréquences sur l'oreille. Disons que sur le plan de la physiologie, elle était par trop lacunaire.

L'écoute « prévisionnelle » et le bègue sourd à lui-même

A. G. : Où en est-on actuellement ?

A. T. : On essaie de préciser les différences qui existent et demeurent irréductibles entre l'oreille et un microphone banal. La première de ces différences, c'est que l'oreille est très sélective. Écoutant un orchestre, elle peut, à son gré, focaliser la flûte ou le deuxième violon — ce que le microphone ne sait pas très bien faire (lorsqu'on l'utilise, on a beaucoup de mal à jouer sur la contre-réaction). Cette focalisation va si loin qu'on peut même parler en certains cas d'un « état prévisionnel ».

Je m'explique. Prenons l'exemple d'un sujet qui va se mettre à parler. Comme j'ai déjà eu l'occasion de vous le dire, ce sujet sera le premier à s'écouter. Pour s'écouter, il va devoir utiliser l'appareil auditif comme appareil microphonique d'auto-écoute. Or, pour bien maîtriser ce processus, il faut en quelque sorte auto-écouter ce qui n'a pas encore été dit : il faut auto-écouter ce que l'oreille est seulement sur le point d'entendre. On est en présence d'un véritable phénomène de prémonition, qui doit absolument entrer en jeu pour que nous dominions parfaitement notre parole. C'est si vrai que le bègue est typiquement un individu incapable de cette prémonition. Parce qu'il ne peut pas « prévisionner » le système, il est comme sourd à lui-même.

L'oreille qui prévoit le si bémol

A. G. : En d'autres termes, cet état « prévisionnel » modifie l'écoute…

A. T. : Exactement. Des expériences ont d'ailleurs montré que l'oreille avait une courbe de réponse qui se modifiait en fonction du son qu'elle « prévoyait ». Il y a quelque trente ans, des phonologistes avaient émis l'hypothèse que, selon un schéma assez semblable, le cerveau « préparait » le larynx. Vous pensez à un si bémol, le larynx s'apprête déjà à l'émettre. C'est peut-être aller un peu loin. Mais dans le cas de l'oreille, il semble indubitable qu'elle prévoit en effet le si bémol en question.

A. G. : Encore faut-il qu'elle ait une culture musicale !

A. T. : Bien entendu. Vous savez que l'oreille présente des réponses au niveau de la musculature. Eh bien, ces réponses n'ont de valeur que si l'oreille est déjà éduquée. C'est un phénomène que j'ai maintes fois l'occasion d'observer dans la pratique. Pour que les muscles du marteau et de l'étrier soient en mesure de répondre, il faut l'association de trois sons. Il faut d'abord cette addition de stimulations pour qu'ensuite les muscles soient capables de répondre en présence d'un son unique.

J'en profite pour dire que d'après certains travaux récents, le muscle de l'étrier innervé par le nerf facial bénéficie d'une innervation complémentaire par le même nerf que le tympan. Ce nerf, c'est le nerf vagal. Et le nerf vagal, comme par hasard, c'est le nerf de l'affectivité.

Les deux oreilles et le tireur d'élite

A. G. : Mais nous n'avons pas une, mais bien deux oreilles !

A. T. : Oui, et là encore, on ne peut rien comprendre si l'on met entre parenthèses la participation du cortex cérébral. En elles-mêmes, nos deux oreilles sont des récepteurs d'information bâtis sur le même modèle. Mais à partir du moment où le cerveau entre en jeu, elles se différencient selon les tâches qui leur sont confiées par ce niveau supérieur. On dit que la « bilatéralité » auditive sert à localiser les sons dans l'espace. C'est vrai, mais comme disait Cyrano, « c'est un peu court… ». Il y a bien d'autres choses à dire !

A. G. : Vous avez parlé d'une différenciation…

A. T. : En effet. Reprenons l'exemple de l'orchestre. L'oreille gauche est celle qui va entendre le son global. L'oreille droite est celle qui va se balader parmi les pupitres, piquer un trait de piccolo par-ci, une phrase de trombone par-là, etc. La première écoute presque « en dilettante ». La seconde est beaucoup plus active, elle « vise » des sons particuliers.

Du reste, la comparaison avec le tireur d'élite s'impose. Savez-vous que les plus grands tueurs gardent les deux yeux ouverts pour viser ? L'un voit le paysage, l'autre focalise sur le centre de la cible. De même qu'il y a double vision chez le tireur d'élite, il y a double écoute chez celui qui maîtrise bien son appareil auditif. Pour rester dans le domaine des comparaisons, on pourrait dire aussi que les deux oreilles sont comme les deux mains d'un pianiste : la droite joue la mélodie, la gauche se charge de l'accompagnement.

Vers un microphone sélectif ?

A. G. : Le trait essentiel de l'écoute humaine apparaît une fois de plus comme son pouvoir de sélection. Ne pourrait-on pas imaginer un microphone doué lui aussi de sélectivité ?

A. T. : On n'en est pas capable pour l'instant. Cependant, je ne désespère pas qu'on arrive un jour à fabriquer un appareil électro-acoustique dont les caractéristiques se rapprochent de celles de l'oreille.

Que se passe-t-il, en effet, lorsque l'oreille « décide » d'entendre ? Elle ouvre ce qu'on pourrait appeler des portes. Or, des portes, il en existe aussi dans le domaine de l'électronique. L'Oreille Électronique par exemple, suppose tout un système de « bascules » électroniques (donc de portes), grâce auxquelles nous pouvons contraindre une oreille humaine à écouter quelque chose qu'elle ne veut pas entendre. Cet appareil nous permet d'avoir une idée plus précise de ce que pourrait être un micro sélectif.

Je ne veux pas trop entrer dans les détails, mais nous avons déjà pu établir un certain nombre de données qui ne sont pas négligeables. J'ai observé entre autres choses que le point de rotation entre l'écoute d'accueil, d'acceptation, et l'écoute de rejet, entre l'écoute relâchée et l'écoute focalisée, se situait à peu près toujours au même niveau.

A. G. : C'est-à-dire ?

A. T. : Aux abords de 800 Hz. Il y a là une sorte de point de bascule, vraisemblablement le même pour tous les hommes dans toutes les régions du globe, ainsi que pour les animaux (c'est ce que je suis en train de vérifier). Une deuxième gêne est repérable vers 3 000 Hz. Pourquoi ? Je n'en sais rien. Je constate simplement. Ce qu'il y a de sûr, c'est qu'il ne s'agit pas d'une coupure d'audition avec les parties hautes du spectre, puisqu'un sujet qui entend des sons préparés à 6 000 ou 8 000 Hz intègre lui aussi fort mal les sons préparés à 3 000 Hz.

Le défi aux fabricants de microphones

Reste que si les fabricants de microphones veulent aller de l'avant, et réaliser une véritable révolution technologique dans leur domaine, ils doivent commencer par étudier de plus près la façon dont fonctionne l'oreille humaine. Il y a là un champ passionnant à défricher. Si l'on s'attaque sérieusement au problème — et nous sommes là pour communiquer les résultats de nos travaux à tous ceux que la question intéresse — on parviendra certainement un jour à mettre au point une machine qui « sache » viser électivement certains sons.

Vous aurez compris qu'il ne s'agit pas d'améliorer le matériel existant, d'aller plus loin dans le même sens, mais bien de changer de point de vue, de faire fonctionner le système dans une autre perspective. Il vaut mieux posséder une mauvaise oreille désireuse d'écouter, qu'une très bonne qui ne veut rien entendre.


Place de cet entretien dans la série

Cet entretien est le treizième d'une série de quinze. Pour le sommaire complet, voir l'article-mère de la série.

Document original

📄 Télécharger le PDF complet (« Interviews d'Alain Gerber avec le Professeur Alfred Tomatis », SON Magazine 1972-1977 — 67 pages)


Source : Alain Gerber, « L'oreille est-elle un microphone naturel ? — Alfred A. Tomatis », SON Magazine n° 72, Paris, juin 1976. Numérisation : Christophe Besson, juin 2010.