Besseres Sprachverstehen dank KI-Hörhilfe

In lauter Umgebung ist es mit einem Hörgerät oder Hörimplantat schwer, ein Gegenüber zu verstehen, weil derzeitige Audioprozessoren noch Schwierigkeiten haben, sich präzise genug auf bestimmte Schallquellen zu fokussieren. Dass Künstliche Intelligenz dieses Problem lösen könnte, zeigen Forschende des Hörforschungslabors der Universität Bern und des Inselspitals nun in einer Machbarkeitsstudie.

Hörgeräte oder Hörimplantate sind aktuell nicht sehr gut darin, für den Träger oder die Trägerin aus vielen Schallquellen gezielt Sprache herauszufiltern – eine natürliche Fähigkeit unseres Gehirns, die bei gesundem Hören funktioniert und in Fachkreisen als «Cocktail-Party-Effekt» bezeichnet wird. Entsprechend schwierig ist es für Personen mit Hörhilfen, in lauter Umgebung einer Unterhaltung zu folgen. Forschende des Hörforschungslabors des ARTORG Center, Universität Bern, und des Inselspitals haben nun einen ungewöhnlichen Ansatz erarbeitet, um Hörhilfen in dieser Hinsicht zu verbessern: virtuelle Zusatzmikrofone, deren Signale von einer Künstlichen Intelligenz errechnet werden.

Wie ein unsichtbares Mikrofon auf der Stirn

Je mehr Mikrofone ein Audioprozessor zur Verfügung hat und je breiter diese verteilt sind, desto besser kann eine Hörhilfe den Schall aus einer bestimmten Richtung fokussieren. Die meisten Hörgeräte besitzen aus Platzgründen zwei nahe beieinander liegende Mikrofone. Im ersten Teil der Studie hat das Hearing Research Laboratory (HRL) ermittelt, dass die optimale Mikrofon-Position (für eine bessere Fokussierung) mitten auf der Stirn liegt - allerdings eine sehr impraktikable Stelle. «Dieses Problem wollten wir umgehen, indem wir dem Audioprozessors mit künstlicher Intelligenz ein virtuelles Mikrofon hinzufügen,» erklärt Tim Fischer, Postdoktorand am HRL, den unkonventionellen Lösungsansatz.

Cocktail-Party-Daten, ein lernendes Neuronales Netzwerk, ein Probandentest

Für den Studienaufbau nutzten die Ingenieure des ARTORG Center den «Bern Cocktail-Party-Datensatz», eine Sammlung einer Vielzahl von Geräusch-Szenarien mit mehreren Schallquellen aus Multi-Mikrofon-Aufnahmen von Hörgerät- oder Cochlea-Implantat-Trägern. Anhand von 65 Stunden Audioaufnahmen (über 78‘000 Audiodateien) trainierten sie ein neuronales Netzwerk zur Verfeinerung eines häufig eingesetzten Richtwirkungs-Algorithmus (Beamforming). Für ein verbessertes Sprachverstehen errechnete der Deep-Learning-Ansatz zusätzliche virtuelle Mikrofon-Signale aus dem Audiodaten-Gemisch. 20 Probandinnen und Probanden testeten das KI-verstärkte Hören in einem subjektiven Hörtest, begleitet von objektiven Messungen. Insbesondere in Cocktail-Party-Settings verbesserten die virtuell abgetasteten Mikrofonsignale die Sprachqualität signifikant. Hörgeräte- und Cochlea-Implantat-Nutzer könnten daher besonders in lauten Umgebungen von dem vorgestellten Ansatz profitieren.

«Ich denke, dass Künstliche Intelligenz einen wichtigen Beitrag für die nächste Generation von Hörprothesen darstellt, da sie grosses Potential für eine Verbesserung des Sprachverstehens, insbesondere in schwierigen Hörsituationen hat,» sagt Marco Caversaccio, Chefarzt und HNO-Klinikdirektor. Da auditive Unterstützungs-Technologien und -Implantate zu einem Schwerpunkt der Forschungsarbeit am Inselspital gehören, werden hier wichtige datenbasierte Grundlagen für eine Weiterentwicklung geschaffen, die dem natürlichen Hörerlebnis näher kommen soll. Die neuartigen Ansätze kommen im Rahmen von Translationsstudien direkt den Patientinnen und Patienten zugute.

Ausblick

Obwohl die virtuell addierten Mikrofone die Qualität des Sprachverstehens mit Hörhilfe innerhalb dieser Studie deutlich verbesserten, müssen weitere Studien noch einige technische Hürden nehmen, bevor die Methodik in Hörgeräten oder Cochlea-Implantat-Audioprozessoren eingesetzt werden kann. Dazu gehört etwa ein stabil funktionierendes Richtungsverstehen auch in Umgebungen mit einem grossen Nachhall.

 

Experten:

  • PD Dr. Wilhelm Wimmer, Leiter Hearing Research Laboratory, ARTORG Center for Biomedical Engineering Research, Universität Bern
  • Prof. Dr. med. Marco Caversaccio, Chefarzt und Klinikdirektor Universitätsklinik für Hals-, Nasen- und Ohrenkrankheiten, Kopf- und Halschirurgie, Inselspital, Universitätsspital Bern
  • Dr. Tim Fischer, Postdoktorand, Hearing Research Laboratory, ARTORG Center for Biomedical Engineering Research, Universität Bern

Links:

Herkömmliche Hörgeräte stossen in Situationen mit vielen, lauten Geräuschquellen an ihre Grenzen. Es wird sehr schwierig gesprochene Sprache aus dem Umgebungslärm herauszufiltern.

Hörhilfen verwenden typischerweise zwei nahe beisammen liegende Mikrofone. Diese filtern die Hintergrundgeräusche aus. Zugleich wird es möglich, sich auf ein Gespräch zu konzentrieren. Im Versuch wird ein drittes, "virtuelles" Mikrophon mittels KI in der Stirnmitte platziert. Damit wird es möglich eine "Cocktail-Party-Situation" besser zu meistern.

Mit 16 Mikrofonen werden die typischen Geräusche einer Party-Situation eingefangen und für das Training des KI-Algorithmus verwendet.

PD Dr. Wilhelm Wimmer, Leiter Hearing Research Laboratory, ARTORG Center for Biomedical Engineering Research, Universität Bern

Dr. Tim Fischer, Postdoktorand, Hearing Research Laboratory, ARTORG Center for Biomedical Engineering Research, Universität Bern

Prof. Dr. med. Marco Caversaccio, Chefarzt und Klinikdirektor Universitätsklinik für Hals-, Nasen- und Ohrenkrankheiten, Kopf- und Halschirurgie, Inselspital, Universitätsspital Bern