15 mai 2026 - Temps de lecture: 6 minutes
Audiologie
15 mai 2026 - Temps de lecture: 6 minutes
Audiologie
Oticon repousse sans cesse les limites de la technologie auditive avec des solutions qui ont pour objectif d’aider les malentendants à vivre la vie qu’ils souhaitent, sans que la perte auditive ne soit jamais un obstacle.
Découvrez les piliers technologiques qui rendent cela possible, pour une audition toujours plus naturelle et performante pour les utilisateurs.
L’audiologie d’Oticon repose sur la philosophie BrainHearing™. Elle consiste à donner la priorité au cerveau dans le processus de traitement de signal. Les oreilles sont le point d’entrée du signal acoustique mais c’est le cerveau qui donne un sens à ce que nous percevons. Là où d’autres fabricants d’aides auditives ont adopté une approche « moins, c’est plus » en matière de traitement du son, nous avons emprunté une voie différente.
L'approche BrainHearing d'Oticon se concentre sur la manière dont le cerveau traite les sons pour l’aider dans sa tâche et améliorer l'expérience auditive des utilisateurs d’aides auditives. Les études scientifiques montrent que nous devons fournir au cerveau davantage d’informations sur son environnement. C’est sur cette vision unique que repose la technologie que nous développons et qui change la vie des malentendants.
La principale difficulté d’un malentendant est de mieux comprendre dans le bruit. Ceci est particulièrement compliqué lorsqu’il s’agit de suivre une conversation à plusieurs en présence de bruit. Voyons comment Oticon aide le cerveau à mieux fonctionner dans de telles situations.
Prenons la scène sonore suivante : le malentendant est assis dans un restaurant très bruyant. Regardons comment nous pouvons aider le cerveau dans sa tâche. À sa table, placée en face de lui se trouve son épouse. De la musique est diffusée dans un haut-parleur non loin de lui et à la table de droite se trouve un couple qui déjeune tout en discutant.
Dans une telle situation, le cerveau va devoir effectuer plusieurs tâche complexes. Il commence par faire l’inventaire des sources sonores :
Pour faire cet inventaire rapidement et facilement, le cerveau va avoir besoin de localiser les sources sonores pour les extraire. Pour cela, il se base sur les différences entre les signaux qui arrivent sur son oreille droite et sur son oreille gauche. En comparant ces signaux il localise et isole les différentes sources sonores.
Malheureusement, si ce patient est appareillé avec des aides auditives conventionnelles, celles-ci vont modifier ces différences interaurales. En particulier, la compression utilisée dans celles-ci va modifier les différences d’intensités entre les deux oreilles et la localisation s’en trouvera plus difficile.
Pour aider le cerveau à localiser plus précisément, les aides auditives Oticon utilisent une technologie nommée Spatial Sound™. En échangeant des données à un rythme très élevé, les aides auditives Oticon sont capables de rétablir les différences interaurales et donner au cerveau des indications précises sur la position des objets sonores. C’est un excellent exemple de technologie BrainHearing. Le signal est ajusté de manière à aider le cerveau dans sa tâche.
Découvrir les technologies Oticon.
Dans ce type d’environnement, les aides auditives utilisant une directivité classique se focaliserait sur la personne placée en face… donc son épouse. Mais est-ce vraiment ce que notre malentendant désire écouter ? Pourquoi est-ce que la technologie devrait choisir à la place du cerveau ?
C’est pour laisser le cerveau décider de lui-même qu’Oticon a, depuis près de 10 ans, abandonné la directivité dans ses appareils haut de gamme. Oticon utilise une approche à 360°, qui permet à l’aide auditive de traiter en temps réel jusqu’à 24 sources sonores différentes. Chacune de ces sources seront analysées pour connaitre leur intensité, leur spectre et s’il s’agit de parole ou de bruit. En fonction de ces analyses, la source sonore sera privilégiée (si c’est de la parole) ou elle sera mise en arrière-plan (s’il ne s’agit pas de parole).
Dans une telle situation des aides auditives utilisant la fameuse directivité étroite auraient cherché à supprimer la musique sortant du haut-parleur, les voix de la table d’à côté et même tout le reste de l’environnement sonore ! Le résultat, une scène sonore appauvrie et incomplète. C’est sûrement la raison pour laquelle les fabricants engagés dans une telle approche agressive semblent revenir en arrière ces derniers temps.
Nous avons dit que le restaurant était bruyant. Un bruit diffus qui vient de toutes les directions. C’est d’ailleurs à cause de cela que certains appareils vont enclencher une directivité étroite avec les conséquences néfastes dont nous venons de parler.
Comme le bruit est diffus et donc, non localisable, il est extrêmement difficile, voire impossible, à traiter par une aide auditive. C’est ici qu’intervient l’intelligence artificielle. Un des atouts majeurs de l’IA est de pouvoir réaliser des tâches que des formules mathématiques ne pourraient résoudre.
C’est à partir de plus de 12 millions de scènes sonores que nous avons entrainé notre réseau neuronal profond (RNP) à débruiter une scène sonore telle que celle que nous décrivons. Le RNP a appris à extraire toutes les sources sonores d’une scène tout en réduisant drastiquement le bruit diffus présent dans la scène. Cela lui permet de s’adapter à toutes les situations.
L’approche conventionnelle consiste généralement à tenter de catégoriser la scène sonore. Par exemple : « voix multiples dans un environnement de restaurant ». Mais une telle catégorisation ne permet pas de répondre précisément à l’infinité de configuration possible pour cet environnement de type « voix multiples dans un environnement de restaurant ».
L’IA d’Oticon ne cherche pas à reconnaitre le type d’environnement. Elle cherche à retirer le bruit diffus quel que soit le type de sources sonores présentes (Parole, musique, autres.). C’est un peu comme si nous avions appris à notre RNP à retirer le brouillard sur une photo sans chercher à savoir où cette photo a été prise, ni ce qu’il y a sur la photo.
Le RNP a été directement intégré dans notre puce électronique. Cela nous permet de réduire considérablement la consommation de l’appareil et ainsi pouvoir utiliser l’IA en permanence. Le bruit est présent autour de nous à chaque instant et qu’il soit modéré ou très fort, pouvoir constamment le réduire permet une réduction de l’effort d’écoute dans toutes les situations.
Oticon a été le premier fabricant à introduire un RNP intégré dans ses aides auditives et nous en sommes aujourd’hui à notre deuxième génération de réseau neuronal profond. Une deuxième version plus précise, plus efficace encore que la première génération.
Revenons à notre scène sonore. Le cerveau de notre malentendant a donc toutes les informations pour se concentrer sur ce qu’il considère comme étant les sources d’intérêt dans son environnement sonore. Le bruit du restaurant a été traité par le réseau neuronal profond. Il engage donc la conversation avec son épouse. La musique en arrière-plan, qu’il continue de percevoir, contribue à rendre ce moment de partage agréable.
Un problème se pose : celui des deux personnes assises à la table d’à côté. Leurs voix peuvent être considérées comme gênantes par notre malentendant. En effet, lorsqu’il discute avec son épouse, il ne souhaite pas être distrait par les voix des autres personnes présentes dans le restaurant.
Mais imaginons qu’à un moment donné ces deux personnes interviennent dans la conversation du couple. Soudainement, pour le malentendant, leurs voix deviennent aussi importantes que la voix de son épouse. Comment alors indiquer aux aides auditives que, même si la scène sonore n’a pas changé, les intentions d’écoute de l’utilisateur ont changé ? Comment leur dire de modifier leur traitement de signal alors que seule la personne concernée est au courant de ce changement ?
Pour tenter de résoudre ce dilemme, les aides auditives traditionnelles doivent faire un choix. Soit continuer d’utiliser leur directivité étroite pour se concentrer sur la voix de l’épouse au détriment de la perception des autres voix, soit dès le début de la scène sonore, d’abandonner leur stratégie phare et de permettre une perception plus large pour tenter d’englober les différentes voix proches. La solution proposée est généralement un réglage entre les deux qui finalement n’est jamais totalement optimal. Puisqu’à aucun moment la scène sonore n’a changé pour l’aide auditive, il devient évident que la classification des environnements ne peut apporter la moindre réponse à cette problématique.
Sur sa dernière plateforme, nommée Sirius, Oticon a introduit le concept de capteur d'intention d'écoute. En se basant sur de nombreux travaux menés au centre de recherche d’Eriksholm, Oticon a pu déterminer des schémas de comportements gestuels permettant de savoir précisément si l’utilisateur est engagé dans une conversation en tête à tête ou dans une conversation à plusieurs.
En intégrant à sa plateforme des capteurs capables de déterminer les mouvements du corps et de la tête, les aides auditives Oticon peuvent, dans un même environnement, s’adapter aux changements d’intention d’écoute de l’utilisateur.
Dans le cas qui nous intéresse ici, tant que l’utilisateur était concentré sur la voix de sa femme, sa tête ne bougeait que très peu, indiquant à l’aide auditive qu’il était engagé dans une conversation à deux et que les autres voix proches n’étaient pas sa priorité. Mais au moment où ses deux voisins sont intervenus dans la discussion, il a commencé à naviguer visuellement entre les différents intervenants. Ses mouvements de tête ont indiqué à l’aide auditive qu’il fallait désormais intégrer ces voix proches à son univers sonore.
De par sa longue expérience et ses nombreuses recherches sur le système cognitif, Oticon a développé des technologies destinées à aider le cerveau à fonctionner plus simplement et plus efficacement. Cette approche reste à ce jour unique en son genre.
Des technologies comme le Spatial Sound, le MoreSound Intelligence™ 3.0(pour piloter le RNP 2.0), les capteurs d’intention d’écoute, ainsi que bon nombre d’autres technologies BrainHearing que nous n’avons pas citées ici, ne se retrouvent nulle part ailleurs que dans les aides auditives Oticon.
Ces dernières sont présentes dans tous les niveaux technologiques de la classe 2. Leur consommation énergétique a été optimisée de manière à pouvoir fonctionner à chaque instant de la vie des utilisateurs.
De nombreuses études ont démontrés qu’au-delà de leur efficacité en termes d’amélioration du rapport Signal Bruit, elles permettaient de réduire l’effort d’écoute, d’améliorer la remémoration et même de réduire le stress lié à l’écoute en milieu bruyant.
Références :