Zu meinen Favoriten hinzufügen
Automatische Übersetzung anzeigen
Dies ist eine automatisch generierte Übersetzung. Wenn Sie auf den englischen Originaltext zugreifen möchten,
klicken Sie hier
#Neues aus der Industrie
{{{sourceTextContent.title}}}
Sensorische Substitution verbessert das Sprachverständnis bei Hörgeschädigten
{{{sourceTextContent.subTitle}}}
Unser Gehirn ist unglaublich geschickt darin, sich auf neue Herausforderungen einzustellen, ein allgemeines Konzept, das als Neuroplastizität bekannt ist. Einige blinde Menschen sind dafür bekannt, Echoortung zu verwenden, und jetzt gibt es einen Konzeptnachweis für eine ähnliche Idee für diejenigen, die nicht gut hören können.
{{{sourceTextContent.description}}}
Eine Gruppe israelischer und polnischer Wissenschaftler hat ein "sensorisches Substitutionsgerät" entwickelt, das aus zwei Touchpads besteht, die Sprache in Vibrationen verwandeln. Der Benutzer legt einen Finger auf jeden einzelnen und die Pads vibrieren mit einer Stimme, die über die Lautsprecher spricht. Die Pads sind mit den tieferen Frequenzen der Sprache synchronisiert, die wir als Timing-Marker verwenden können, der uns hilft, das gesprochene Wort zu verstehen.
Um zu beurteilen, ob die Technologie zum Sprachverstehen beitragen kann, ließ die Forscher eine Gruppe von Nicht-Muttersprachlern Englisch hören und verschiedene Sätze wiederholen. Die gesprochenen Sätze wurden mit einem Haufen lauter Filter versehen, die sie schwer hörbar machten, besonders für Menschen, die in Orten wie geschäftigen Restaurants Schwierigkeiten beim Hören haben würden.
Bemerkenswert ist, dass die Teilnehmer die gesprochenen Sätze viel besser verstehen konnten, wenn sie das sensorische Substitutionsgerät benutzten. "Unsere Ergebnisse haben wichtige Auswirkungen auf die weitere Forschung sowie auf mögliche klinische und praktische Lösungen", sagte der Mitautor der Studie Tomasz Wolak, PhD Eng, World Hearing Center, Warschau, Polen. "Die Fähigkeit, durch die Finger zu hören, kann das Hören erheblich erleichtern. Unser Ansatz schlägt vor, dass multisensorische Stimulationen, die die gleiche Art von Informationen liefern (in diesem Fall gesprochene Sprache, die durch Berührung zusätzlich zum Hören vermittelt wird), in derselben Hirnregion (in diesem Fall gesprochene Sprachzentren) verarbeitet werden sollten, um schließlich vorherzusagen, dass multisensorische Stimulationen (sowohl Geräusche als auch Berührung) die Wahrnehmung verbessern sollten."