Vivre avec un appareil auditif

Le blog qui vous aide à vivre une vie épanouïe avec des aides auditives

banner-blog-technologie

La technologie Oticon qui fait toute la différence

Temps de lecture : 6 min
26/08/25

Une philosophie unique

L’audiologie d’Oticon repose sur la philosophie BrainHearingTM. Elle consiste à donner la priorité au cerveau dans le processus de traitement de signal. Les oreilles sont le point d’entrée du signal acoustique mais c’est le cerveau qui donne un sens à ce que nous percevons. Là où d’autres fabricants d’aides auditives ont adopté une approche « moins, c’est plus » en matière de traitement du son, nous avons emprunté une voie différente.

L'approche BrainHearing™ d'Oticon se concentre sur la manière dont le cerveau traite les sons pour l’aider dans sa tâche et améliorer l'expérience auditive des utilisateurs d’aides auditives. Les études scientifiques montrent que nous devons fournir au cerveau davantage d’informations sur son environnement. C’est sur cette vision unique que repose la technologie que nous développons et qui change la vie des malentendants.

 

Exploration des technologies Oticon à travers un cas concret

La principale difficulté d’un malentendant est de mieux comprendre dans le bruit. Ceci est particulièrement compliqué lorsqu’il s’agit de suivre une conversation à plusieurs en présence de bruit. Voyons comment Oticon aide le cerveau à mieux fonctionner dans de telles situations.

Prenons la scène sonore suivante : le malentendant est assis dans un restaurant très bruyant. Regardons comment nous pouvons aider le cerveau dans sa tâche. A sa table, placée en face de lui se trouve son épouse. De la musique est diffusée dans un haut-parleur non loin de lui et à la table de droite se trouve un couple qui déjeune tout en discutant.

 

1. Localisation des sources

Dans une telle situation, le cerveau va devoir effectuer plusieurs tâche complexes. Il commence par faire l’inventaire des sources sonores :

 

  • Une personne qui parle en face.
  • Une autre qui parle sur la gauche et deux personnes sur la droite.
  • Un haut-parleur
  • Et du bruit tout autour.

    Pour faire cet inventaire rapidement et facilement, le cerveau va avoir besoin de localiser les sources sonores pour les extraire. Pour cela, il se base sur les différences entre les signaux qui arrivent sur son oreille droite et sur son oreille gauche. En comparant ces signaux il localise et isole les différentes sources sonores.

    Malheureusement, si ce patient est appareillé avec des aides auditives conventionnelles, celles-ci vont modifier ces différences interaurales. En particulier, la compression utilisée dans celles-ci va modifier les différences d’intensités entre les deux oreilles et la localisation s’en trouvera plus difficile.

    Pour aider le cerveau à localiser plus précisément, les aides auditives Oticon utilisent une technologie nommée Spatial SoundTM. En échangeant des données à un rythme très élevé, les aides auditives Oticon sont capables de rétablir les différences interaurales et donner au cerveau des indications précises sur la position des objets sonores. C’est un excellent exemple de technologie BrainHearing. Le signal est ajusté de manière à aider le cerveau dans sa tâche.

    Découvrir les technologies Oticon

    3

     

2. Ségrégation des sources

L’étape suivante consiste à décider sur quelle(s) source(s) sonore(s) doit se concentrer le cerveau. L’épouse ? Les deux personnes assises à côté ? La musique qui sort du haut-parleur ?

Dans ce type d’environnement, les aides auditives utilisant une directivité classique se focaliserait sur la personne placée en face… donc son épouse. Mais est-ce vraiment ce que notre malentendant désire écouter ? Pourquoi est-ce que la technologie devrait choisir à la place du cerveau ?

C’est pour laisser le cerveau décider de lui-même qu’Oticon a, depuis près de 10 ans, abandonné la directivité dans ses appareils haut de gamme. Oticon utilise une approche à 360°, qui permet à l’aide auditive de traiter en temps réel jusqu’à 24 sources sonores différentes. Chacune de ces sources seront analysées pour connaitre leur intensité, leur spectre et s’il s’agit de parole ou de bruit. En fonction de ces analyses, la source sonore sera privilégiée (si c’est de la parole) ou elle sera mise en arrière-plan (s’il ne s’agit pas de parole).

Dans une telle situation des aides auditives utilisant la fameuse directivité étroite auraient cherché à supprimer la musique sortant du haut-parleur, les voix de la table d’à côté et même tout le reste de l’environnement sonore ! Le résultat, une scène sonore appauvrie et incomplète. C’est sûrement la raison pour laquelle les fabricants engagés dans une telle approche agressive semblent revenir en arrière ces derniers temps.

 

 

3. Le débruitage par l’Intelligence Artificielle

Nous avons dit que le restaurant était bruyant. Un bruit diffus qui vient de toutes les directions. C’est d’ailleurs à cause de cela que certains appareils vont enclencher une directivité étroite avec les conséquences néfastes dont nous venons de parler.

Comme le bruit est diffus et donc, non localisable, il est extrêmement difficile, voire impossible, à traiter par une aide auditive. C’est ici qu’intervient l’intelligence artificielle. Un des atouts majeurs de l’IA est de pouvoir réaliser des tâches que des formules mathématiques ne pourraient résoudre.

C’est à partir de plus de 12 millions de scènes sonores que nous avons entrainé notre réseau neuronal profond (RNP) à débruiter une scène sonore telle que celle que nous décrivons. Le RNP a appris à extraire toutes les sources sonores d’une scène tout en réduisant drastiquement le bruit diffus présent dans la scène. Cela lui permet de s’adapter à toutes les situations.

1

L’approche conventionnelle consiste généralement à tenter de catégoriser la scène sonore. Par exemple : « voix multiples dans un environnement de restaurant ». Mais une telle catégorisation ne permet pas de répondre précisément à l’infinité de configuration possible pour cet environnement de type « voix multiples dans un environnement de restaurant ».

L’IA d’Oticon ne cherche pas à reconnaitre le type d’environnement. Elle cherche à retirer le bruit diffus quel que soit le type de sources sonores présentes (Parole, musique, autres.). C’est un peu comme si nous avions appris à notre RNP à retirer le brouillard sur une photo sans chercher à savoir où cette photo a été prise, ni ce qu’il y a sur la photo.

Le RNP a été directement intégré dans notre puce électronique. Cela nous permet de réduire considérablement la consommation de l’appareil et ainsi pouvoir utiliser l’IA en permanence. Le bruit est présent autour de nous à chaque instant et qu’il soit modéré ou très fort, pouvoir constamment le réduire permet une réduction de l’effort d’écoute dans toutes les situations.

Oticon a été le premier fabricant à introduire un RNP intégré dans ses aides auditives et nous en sommes aujourd’hui à notre deuxième génération de réseau neuronal profond. Une deuxième version plus précise, plus efficace encore que la première génération.

 

 

4. Les intentions d’écoute

Revenons à notre scène sonore. Le cerveau de notre malentendant a donc toutes les informations pour se concentrer sur ce qu’il considère comme étant les sources d’intérêt dans son environnement sonore. Le bruit du restaurant a été traité par le réseau neuronal profond. Il engage donc la conversation avec son épouse. La musique en arrière-plan, qu’il continue de percevoir, contribue à rendre ce moment de partage agréable.

Un problème se pose : celui des deux personnes assises à la table d’à côté. Leurs voix peuvent être considérées comme gênantes par notre malentendant. En effet, lorsqu’il discute avec son épouse, il ne souhaite pas être distrait par les voix des autres personnes présentes dans le restaurant.

Mais imaginons qu’à un moment donné ces deux personnes interviennent dans la conversation du couple. Soudainement, pour le malentendant, leurs voix deviennent aussi importantes que la voix de son épouse. Comment alors indiquer aux aides auditives que, même si la scène sonore n’a pas changé, les intentions d’écoute de l’utilisateur ont changé ? Comment leur dire de modifier leur traitement de signal alors que seule la personne concernée est au courant de ce changement ?

Pour tenter de résoudre ce dilemme, les aides auditives traditionnelles doivent faire un choix. Soit continuer d’utiliser leur directivité étroite pour se concentrer sur la voix de l’épouse au détriment de la perception des autres voix, soit dès le début de la scène sonore, d’abandonner leur stratégie phare et de permettre une perception plus large pour tenter d’englober les différentes voix proches. La solution proposée est généralement un réglage entre les deux qui finalement n’est jamais totalement optimal. Puisqu’à aucun moment la scène sonore n’a changé pour l’aide auditive, il devient évident que la classification des environnements ne peut apporter la moindre réponse à cette problématique.

Sur sa dernière plateforme, nommée Sirius, Oticon a introduit le concept de capteur d’intention d’écoute. En se basant sur de nombreux travaux menés au centre de recherche d’Eriksholm, Oticon a pu déterminer des schémas de comportements gestuels permettant de savoir précisément si l’utilisateur est engagé dans une conversation en tête à tête ou dans une conversation à plusieurs.

En intégrant à sa plateforme des capteurs capables de déterminer les mouvements du corps et de la tête, les aides auditives Oticon peuvent, dans un même environnement, s’adapter aux changements d’intention d’écoute de l’utilisateur.

Dans le cas qui nous intéresse ici, tant que l’utilisateur était concentré sur la voix de sa femme, sa tête ne bougeait que très peu, indiquant à l’aide auditive qu’il était engagé dans une conversation à deux et que les autres voix proches n’étaient pas sa priorité. Mais au moment où ses deux voisins sont intervenus dans la discussion, il a commencé à naviguer visuellement entre les différents intervenants. Ses mouvements de tête ont indiqué à l’aide auditive qu’il fallait désormais intégrer ces voix proches à son univers sonore.

2

De par sa longue expérience et ses nombreuses recherches sur le système cognitif, Oticon a développé des technologies destinées à aider le cerveau à fonctionner plus simplement et plus efficacement. Cette approche reste à ce jour unique en son genre.

Des technologies comme le Spatial Sound, le MoreSound IntelligenceTM 3.0 (pour piloter le RNP 2.0), les capteurs d’intention d’écoute, ainsi que bon nombre d’autres technologies BrainHearing que nous n’avons pas citées ici, ne se retrouvent nulle part ailleurs que dans les aides auditives Oticon.

Ces dernières sont présentes dans tous les niveaux technologiques de la classe 2. Leur consommation énergétique a été optimisée de manière à pouvoir fonctionner à chaque instant de la vie des utilisateurs.

De nombreuses études ont démontrés qu’au-delà de leur efficacité en termes d’amélioration du rapport Signal Bruit, elles permettaient de réduire l’effort d’écoute, d’améliorer la remémoration et même de réduire le stress lié à l’écoute en milieu bruyant.

Références

  1. Ahrens, A., & Lund, K. D. (2022). Auditory spatial analysis in reverberant multi-talker environments with congruent and incongruent audio-visual room information. Journal of the Acoustical Society of America, 152(3), 1586–1594.
  2. Ahrens, A., Christensen, N. F., Westermann, A., Best, V., Dau, T., & Neher, T. (2022). Audio-Visual Scene Analysis in Listeners with Normal and Impaired Hearing. International Hearing Aid Research Conference (IHCON22). Lake Tahoe, CA, US.
  3. Brændgaard, M./Zapata-Rodriguez, V., Stefancu, I., Sanchez Lopez, R. , & Santurette, S. (2024). 4D Sensor technology and Deep Neural Network 2.0 in Oticon IntentTM. Revues techniques et évaluations. Oticon whitepaper.
  4. Hadley, L. V., Whitmer, W. M., Brimijoin, W. O., & Naylor, G. (2020). Conversation in small groups: Speaking and listening strategies depend on the complexities of the environment and group. Speaking and listening strategies depend on the complexities of the environment and group.
  5. Man K. L., B., & H. N. Ng, E. (2020). BrainHearing™ – The new perspective. Oticon Whitepaper.
  6. Wagener, K., Brand, T., & Kollmeier, B. (1999). Entwicklung und Evaluation eines Satztests in deutscher Sprache Teil III: Evaluation des Oldenburger Satztests (in German) (Development and evaluation of a German sentence test–Part III: Evaluation of the Oldenburg sentence test). Zeitschrift für Audiologie, 38, 86-95.
  7. Reducing sustained listening e ort and listening stress with Oticon Intent™ - Research Brief 2024 - Valentina Zapata-Rodríguez and Sébastien Santurette Centre for Applied Audiology Research, Oticon A/S
  8. Superior speech clarity andaccess to speech cues Oticon Intent™ competitive benchmark- Research Brief 2024 - Marianna Vatti, Jorge Mauricio Cisneros-Caballero, Valentina Zapata-Rodríguez, Sébastien Santurette Centre for Applied Audiology Research, Oticon A/S
  9. Oticon Intent™- Clinical evidence - WHITEPAPER 2024 - Federica Bianchi*, Kasper Eskelund*, Valentina Zapata-Rodríguez*, Raul Sanchez Lopez, and Pernille Aaby GadeCentre for Applied Audiology Research, Oticon A/S
  10. 4D Sensor technology andDeep Neural Network 2.0in Oticon Intent™ - WHITEPAPER 2024 - Mette Brændgaard*, Valentina Zapata-Rodríguez*, Ioana Stefancu, Raul Sanchez-Lopez, Sébastien SanturetteCentre for Applied Audiology Research, Oticon A/S
  11. Understanding BrainHearing™ - WHITEPAPER 2015 - Terri E. Ives, Sc.D., Au.D. Senior Research Audiologist Oticon A/S