Automatische Übersetzung anzeigen
Dies ist eine automatisch generierte Übersetzung. Wenn Sie auf den englischen Originaltext zugreifen möchten, klicken Sie hier
#Neues aus der Industrie
{{{sourceTextContent.title}}}
KI verbessert das Sprachverständnis von Hörgeräteträgern
{{{sourceTextContent.subTitle}}}
In lauten Umgebungen ist es für Hörgeräte- oder Hörimplantat-Träger schwierig, ihren Gesprächspartner zu verstehen, da aktuelle Audioprozessoren noch Schwierigkeiten haben, sich auf bestimmte Schallquellen zu konzentrieren. In einer Machbarkeitsstudie schlagen Forscher des Hearing Research Laboratory der Universität Bern und des Inselspitals nun vor, dass künstliche Intelligenz dieses Problem lösen könnte.
{{{sourceTextContent.description}}}
Hörgeräte oder Hörimplantate sind derzeit nicht sehr gut darin, spezifische Sprache aus vielen Schallquellen für den Träger selektiv herauszufiltern - eine natürliche Fähigkeit des menschlichen Gehirns und Gehörs, die in der Audiologie als "Cocktailparty-Effekt" bekannt ist. Dementsprechend ist es für Hörgeräteträger schwierig, einem Gespräch in einer lauten Umgebung zu folgen.
Forscher des Hörforschungslabors des ARTORG Zentrums der Universität Bern und des Inselspitals haben nun einen ungewöhnlichen Ansatz entwickelt, um Hörgeräte in dieser Hinsicht zu verbessern: virtuelle Zusatzmikrofone, deren Signale von künstlicher Intelligenz berechnet werden.
Je mehr Mikrofone zur Verfügung stehen und je weiter sie verteilt sind, desto besser kann sich ein Hörgerät auf den Schall aus einer bestimmten Richtung konzentrieren. Die meisten Hörgeräte haben aus Platzmangel zwei Mikrofone dicht nebeneinander. Im ersten Teil der Studie stellte das Hearing Research Laboratory (HRL) fest, dass die optimale Mikrofonposition (für eine bessere Fokussierung) in der Mitte der Stirn liegt - allerdings ist dies eine sehr unpraktische Position. "Wir wollten dieses Problem umgehen, indem wir dem Audioprozessor mit Hilfe von künstlicher Intelligenz ein virtuelles Mikrofon hinzufügten", erklärt Tim Fischer, Postdoktorand am HRL, diesen unkonventionellen Ansatz.
Für den Studienaufbau verwendeten die Ingenieure des ARTORG Centers den "Bern Cocktail Party Dataset", eine Sammlung verschiedener Geräuschszenarien mit mehreren Schallquellen aus Multi-Mikrofon-Aufnahmen von Hörgeräte- oder Cochlea-Implantat-Trägern. Anhand von 65 Stunden Audioaufnahmen (mehr als 78.000 Audiodateien) trainierten sie ein neuronales Netzwerk, um einen häufig verwendeten Direktionalitätsalgorithmus (Beamformer) zu verfeinern. Für ein verbessertes Sprachverständnis berechnete der Deep-Learning-Ansatz zusätzliche virtuelle Mikrofonsignale aus der Audiodatenmischung. 20 Probanden testeten das KI-verbesserte Hören in einem subjektiven Hörtest, der von objektiven Messungen begleitet wurde. Insbesondere in Cocktail-Party-Situationen verbesserten die virtuell abgetasteten Mikrofonsignale die Sprachqualität signifikant. Hörgeräte- und Cochlea-Implantat-Träger könnten daher von dem vorgestellten Ansatz profitieren, insbesondere in lauten Umgebungen.
"Ich denke, dass die künstliche Intelligenz einen wichtigen Beitrag zur nächsten Generation von Hörprothesen darstellt, da sie ein großes Potenzial zur Verbesserung des Sprachverständnisses, insbesondere in schwierigen Hörsituationen, besitzt", sagt Marco Caversaccio, Chefarzt und Leiter der HNO-Abteilung.
Obwohl im Rahmen dieser Studie die virtuell hinzugefügten Mikrofone die Qualität des Sprachverstehens mit Hörgeräten deutlich verbesserten, müssen in weiteren Studien noch einige technische Hürden überwunden werden, bevor die Methodik in Hörgeräten oder Cochlea-Implantat-Audioprozessoren eingesetzt werden kann. Dazu gehört z. B. ein stabil funktionierendes Richtungsverständnis auch in halliger Umgebung.